Il segreto della vita

Abbiamo visto in “Il sistema solare parte ottava” la storia e l’evoluzione del nostro pianeta, ma un dubbio resta: mentre è molto chiaro, in base alle conoscenze attuali, come, dal punto di vista fisico e chimico, si sviluppa e si evolve la materia, diciamo, “inanimata”, restano ancora sconosciute le modalità di formazione della “vita” sulla Terra, o meglio, come dalla materia inanimata ci si sia arrivati.

L’idea che gli ingredienti necessari all’origine della vita siano arrivati sulla Terra nel corso di violenti bombardamenti meteoritici, circa quattro miliardi di anni fa, non è una novità.

In un episodio della sesta stagione di “Star Trek: The next generation” (il ventesimo, “The Chase”, “Il segreto della vita” in italiano) si ipotizza che una razza antichissima di alieni, prima di estinguersi abbia sparso il proprio patrimonio genetico per la galassia. Se da un lato questo episodio può essere usato per spiegare la particolare somiglianza della maggior parte delle razze aliene in Star Trek (quasi tutte umanoidi, pochissime ad esempio rettiloidi), dall’altro sembra che l’ispirazione sia la teoria della panspermia, che è appunto quella che accennavo.

Dal greco “πανσπερμία” da πᾶς/πᾶν (pas/pan) “tutto” e σπέρμα (sperma) “seme”) è una ipotesi che suggerisce che i semi della vita (in senso ovviamente figurato) siano sparsi per l’Universo, e che la vita sulla Terra sia iniziata con l’arrivo di detti semi e il loro sviluppo. È implicito quindi che ciò possa accadere anche su molti altri pianeti. Per estensione, semi si potrebbero considerare anche semplici molecole organiche.

Ma dove si sarebbero formate queste molecole organiche che viaggiavano a bordo dei meteoriti, se non vogliamo considerare la tesi fantascientifica?

Secondo l’ipotesi finora più accreditata, bisognerebbe cercare nel più remoto passato del sistema solare, quando la nostra stella era ancora a uno stadio di nebulosa: è in quel periodo che questi composti sarebbero rimasti “imprigionati” nei meteoriti appena nati, che li avrebbero poi trasportati nello spazio per milioni di anni.

Tuttavia i risultati di un nuovo esperimento italiano, svolto in collaborazione con degli scienziati russi, sembrerebbero aprire nuovi scenari sul ruolo svolto dai meteoriti nella nascita dei componenti base della cellula. Queste biomolecole avrebbero continuato, e continuerebbero, a formarsi sui meteoriti, infatti, anche in momenti successivi, perché i minerali di cui sono costituiti promuoverebbero le reazioni chimiche che le sintetizzano.

Come si legge su “Proceedings of the National Academy of Sciences”, i ricercatori hanno osservato che inviare fasci di protoni ad altissima energia, simulando il vento solare, su un mix di meteorite polverizzato e formammide, una molecola semplice a base di carbonio molto diffusa nell’universo, porta alla formazione spontanea di centinaia di composti organici complessi: amminoacidi, i mattoni delle proteine; lipidi, i costituenti della membrana cellulare; acidi carbossilici, su cui si basa il metabolismo; zuccheri; basi azotate e persino nucleosidi, molecole più articolate alla base sia del DNA che dell’RNA, che non erano mai state ottenute in altri studi volti a riprodurre in laboratorio la nascita della vita. Un risultato che, senza l’azione della polvere di meteorite quale catalizzatore delle reazioni chimiche di trasformazione della formammide, non si sarebbe potuto ottenere.

L’esperimento mostra che le molecole alla base della cellula si possono formare ovunque nell’universo. Allo stato attuale della ricerca, appare più probabile che i composti chimici che hanno dato origine alla vita sulla Terra si siano formati sui meteoriti stessi in presenza di formammide grazie all’energia del vento solare, piuttosto che sul nostro pianeta o durante l’impatto, per il calore sprigionato; anche se queste ultime due ipotesi non si possono comunque escludere.

Oltre a “rivalutare” il ruolo dei meteoriti nell’origine della vita da semplici mezzi di trasporto a fattore fondamentale per la formazione di molecole organiche, lo studio evidenzia per la prima volta la possibilità che la fonte di energia alla base di questo processo sia stata il vento solare, il flusso di particelle cariche che la nostra stella genera per reazioni termonucleari.

Anche a questo vento era stato già riconosciuto un ruolo importante nel preservare la vita, perché, spirando con violenza a migliaia di chilometri all’ora fino ai confini del sistema solare, ci protegge da pericolosissime radiazioni cosmiche esterne, con le quali si scontra. Ma finora nessuno aveva mai mostrato che, oltre a creare una sorta di gabbia protettiva per poter originare la vita, questo vento potesse contribuirvi anche attivamente.

Quello che ha stupito è stato constatare l’enorme efficienza di questa nuova sorgente di energia, potente ma fredda. La cosa bella è che si tratta di un meccanismo universale, può verificarsi in qualsiasi sistema planetario: l’energia delle stelle si trova in tutto l’universo, così come i meteoriti e la formammide, e la chimica del carbonio funziona allo stesso modo ovunque.

Sono più di cinquant’anni, ormai, che gli scienziati cercano di riprodurre in laboratorio le condizioni ambientali e chimiche della Terra primordiale sperando di osservare la formazione della vita a partire da sostanze inorganiche, con alcuni parziali successi. Il primo in assoluto era stato lo storico esperimento di Urey-Miller, in cui i due scienziati erano riusciti a indurre la formazione spontanea di amminoacidi applicando scariche elettriche su un gas di sostanze inorganiche (metano, ammoniaca, idrogeno e vapore acqueo) a modello di atmosfera della Terra primordiale.

Harold Clayton Urey (1893-1981), oltre che premio Nobel per la chimica nel 1934 per la scoperta del deuterio, fu insegnante di Isaac Asimov e direttore di un gruppo che lavorò al “Progetto Manhattan”. Stanley Lloyd Miller (1930-2007) fu un suo studente ed assieme portarono avanti le ricerche e il famoso esperimento.

Da allora lo studio dell’origine della vita è diventato una disciplina a sé, la cosiddetta chimica prebiotica, che studia processi il più possibile semplici ma in grado di generare molecole di grande complessità strutturale. Diversi modelli di Terra primordiale sono stati sperimentati, variando le sostanze inorganiche di partenza, le condizioni di temperatura e pressione, la fonte di energia, dal calore a vari tipi di radiazioni, e hanno portato alla formazione spontanea di diversi composti organici.

Per quanto si possa speculare all’infinito su come la vita abbia avuto inizio, limitandoci ai risultati sperimentali possiamo dire, a grandi linee, che negli ultimi anni si sono fronteggiate due grandi scuole di pensiero: quella secondo cui si sarebbe sviluppato prima il “materiale genetico” della vita, l’RNA (un polimero che svolge svariate funzioni all’interno della cellula, dalla duplicazione del DNA alla regolazione dell’espressione di geni), e quella secondo cui, invece, avrebbero avuto prima origine i processi metabolici, cioè la raccolta e l’utilizzo di energia sotto controllo, mentre la genetica sarebbe stata un passo successivo.

La presenza di queste due scuole è legata al fatto che gli esperimenti producevano, alternativamente, i composti precursori dell’uno o dell’altro aspetto. A mettere d’accordo tutti, però, sarebbe entrata in scena la formammide.

La formammide è un composto a base di carbonio legato ad atomi di idrogeno, azoto e ossigeno, gli atomi più importanti a livello biologico. È estremamente semplice e allo stesso tempo contiene tutti gli elementi chimici necessari per dar luogo a biomolecole, ed è molto diffusa nell’universo. Nella nostra galassia sono state individuate nubi di formammide del diametro di migliaia di anni luce, ma la sua presenza è stata osservata anche all’interno di altre galassie, di stelle molto giovani, nel mezzo interstellare, e su comete e satelliti, oltre che sul nostro stesso pianeta.

La chimica prebiotica della formammide è ormai un dato acquisito: gli scienziati sono riusciti a ottenere allo stesso tempo sia i composti precursori dei processi genetici, cioè le basi azotate, che quelli alla base dei processi metabolici, cioè gli acidi carbossilici. Questo suggerisce che entrambi i processi potrebbero essere emersi simultaneamente, ponendo fine al dibattito tra le due diverse scuole di pensiero. Tuttavia con questi modelli non si era mai riusciti a generare nucleosidi, cioè basi azotate legate a uno zucchero, che sono composti più evoluti.

La nuova ricerca ha avuto tre protagonisti, tutti e tre indispensabili, ognuno con un ruolo diverso: i fasci di protoni, a simulare il vento solare come sorgente di energia; la formammide liquida che, scomposta, fornisce il materiale per formare nuove molecole più complesse; e polvere di meteorite, che mescolata alla formammide agisce come catalizzatore, favorendo le reazioni chimiche che hanno portato alla sintesi delle biomolecole (gli elementi metallici dei minerali meteoritici rendono la formammide più reattiva, cioè più propensa a trasformazioni chimiche, sottraendole elettroni).

Tutti i meteoriti hanno dato risultati, ma quelli che si sono dimostrati più attivi sono le condriti, i meteoriti più antichi, che provengono dalla preistoria del nostro sistema solare, la cui composizione chimica è più simile a quella della nebulosa presolare. Rispetto ai minerali che possiamo trovare sulla Terra, i meteoriti presentano una composizione molto più ricca, per la loro storia: ognuno contiene diversi tipi di minerali, per cui si possono ottenere tutte le reazioni prodotte da quell’insieme di minerali in una volta sola. I meteoriti sono una sorta di laboratorio chimico per studiare lo spazio.

Non è ancora vita, ma gli ingredienti ci sono tutti. È tutto talmente chiaro e semplice: un atomo di carbonio solo attaccato ad azoto, idrogeno e ossigeno, se ulteriormente attivato, genera composti più complessi precursori sia della parte genetica che di quella metabolica, nella stessa provetta, nello stesso ambiente, nella stessa reazione; qualsiasi meteorite si usi, con diverse fonti di energia. Non a caso questi composti sono stati osservati nelle nubi stellari.

I passi successivi, che hanno portato alla cellula vera e propria a partire da questi composti organici di base ormai non sarebbero più un mistero. Esistono modelli sperimentali che riproducono l’origine spontanea dell’RNA, sono stati condotti vari studi che mostrano come queste molecole si aggreghino spontaneamente in una membrana cellulare, e come questa si replichi spontaneamente.

Finché parliamo di singole molecole, che siano basi nucleiche, zuccheri o amminoacidi, parliamo di chimica non vivente. Per parlare di vivente, serve un insieme di processi genetici, cioè un ciclo di trasmissione dell’informazione, e per questo servono dei polimeri, ovvero catene di molecole più complesse. In questo senso, i nucleosidi sono fondamentali perché possono unirsi in catene e formare RNA.

L’unica cosa che manca è capire come tutte queste molecole si siano messe a cooperare per far funzionare la vita come sistema complesso, qual è la scintilla che ha coordinato i lavori affinché nascesse il cosiddetto Last Unknown Common Ancestor (LUCA), che probabilmente fu un batterio Archaea estremofilo. Questo è oggetto di ricerca di una disciplina a sé, la biologia sintetica, o chimica dei sistemi.

In questo ambito, gli scienziati stanno cercando di capire se questa scintilla non sia stata favorita dall’azione di sostanze minerali. Alcuni sistemi che simulano le condizioni della Terra quando si è originata la vita hanno mostrato la crescita spontanea di membrane cristalline, che potrebbero aver favorito il momento di passaggio da un cocktail di molecole a una cellula vivente vera e propria.

La vita è semplice, è tutto “poco costoso”: deve essersi originata da processi frequenti, termodinamicamente favoriti, grazie a una fonte di energia disponibile ovunque e materiali di partenza molto diffusi.

Oppure, come aveva scoperto il vecchio insegnante di archeologia del Capitano Picard, il professor Galen, sono stati gli alieni.

Interstellar

Do not go gentle into that good night,/Old age should burn and rave at close of day;/Rage, rage against the dying of the light.

Though wise men at their end know dark is right,/Because their words had forked no lightning they/Do not go gentle into that good night.

Good men, the last wave by, crying how bright/Their frail deeds might have danced in a green bay,/Rage, rage against the dying of the light.

Wild men who caught and sang the sun in flight,/And learn, too late, they grieved it on its way,/Do not go gentle into that good night.

Grave men, near death, who see with blinding sight/Blind eyes could blaze like meteors and be gay,/Rage, rage against the dying of the light.

And you, my father, there on the sad height,/Curse, bless, me now with your fierce tears, I pray./Do not go gentle into that good night./Rage, rage against the dying of the light.

[Dylan Thomas, 1914 – 1953]

 

Prima di iniziare questo pezzo, terza parte della trilogia sulla velocità della luce, una precisazione. Non sono un fisico, né uno scienziato, ma solo un appassionato che raccoglie storie e notizie e le mette insieme. Il giorno che dovessi decidere di farne un mestiere, l’approccio sarebbe sicuramente diverso. Inoltre cito le mie fonti e nel disclaimer sul fondo del blog specifico quanto appena scritto. E così abbiamo sistemato pure Federico…

Per gli appassionati di fantascienza questi ultimi anni sono stati senza dubbio a due volti: da un lato, la delusione di vedere tutti i sogni dell’infanzia andare in fumo (sognavamo di avere macchine volanti, il teletrasporto e di fondare colonie in giro per lo spazio…), dall’altro tutta una serie di nuove produzioni cinematografiche e bibliografiche di sicuro interesse.

Cito ad esempio Interstellar e Star Trek, che sono sicuramente tra questi (Star Wars, pur essendo degno di menzione, è più del genere “fantasy” che di fantascienza). Anche se Interstellar è pieno di bla-bla pseudoscientifico, parla, come avevo accennato in “Più veloce della luce”, della possibilità di viaggiare all’interno di un buco nero per superare le immense distese dello spazio; Kip Thorne, professore di fisica al Caltech, che, oltre ad aver collaborato con fisici del calibro di Stephen Hawking e John Wheeler, ha partecipato alla creazione del progetto LIGO, che di recente ha registrato per la prima volta le onde gravitazionali, è stato uno dei consulenti scientifici del film.

Non vi racconterò la trama di Interstellar, anche perché se ne andrebbe metà di quest’articolo, ma inizierò a parlare di Star Trek. Vedo già gli occhi al cielo di qualcuno che conosco che starà pensando :”un’altra volta!”…

Star Trek, come avevo accennato in “Beam me up, Scotty!”, è un “media franchise” di genere fantascientifico che ha avuto inizio nel 1966 con una serie televisiva ideata da Gene Roddenberry, divenuta in seguito tra le più popolari nella storia della televisione. Il fatto di avere dei grossi problemi di budget in fase di progettazione della serie originale, quella con Kirk e Spock, giusto per capirci, fece spremere le meningi a Roddenberry, che per evitare costose scene di atterraggi e decolli, si inventò il teletrasporto e per giustificare il fatto di percorrere le immense distanze in tempi ragionevoli (d’altra parte una puntata durava 45 minuti!) dovette inventare un metodo di propulsione che permettesse all’Enterprise di viaggiare più velocemente della luce evitando tutti i problemi che già conosciamo; anche in questo caso trovò un escamotage ed inventò la velocità curvatura. Avrebbe potuto semplicemente far riapparire l’astronave nel punto desiderato dell’Universo (in ogni caso stiamo parlando di un telefilm) ma non solo inventò la velocità di curvatura, ma descrisse anche come doveva funzionare il motore dell’Enterprise. Ritengo che uno dei motivi di maggior successo della seria sia proprio questa ossessione nel descrivere i dettagli. Ovviamente non tutte le cose sono realizzate o realizzabili, ma almeno ci hanno provato. E quando un intervistatore domandò a Michael Okuda, consulente tecnico di Star Trek, come funzionassero i compensatori di Heisenberg, presenti nel manuale tecnico del teletrasporto, egli rispose semplicemente: “Benissimo, grazie!”.

Vediamo intanto come funziona il motore di curvatura e come si ottiene la velocità di curvatura e soprattutto cerchiamo di capire se può essere un modo per aggirare gli ostacoli che abbiamo incontrato sino ad ora nel superamento della velocità della luce. La propulsione a curvatura può essere definita in questo semplice modo: mentre nella propulsione sub-luminale è la nave che si sposta nello spazio, in curvatura si “muove” lo spazio attorno alla nave! Per la precisione, si comprime lo spazio nella direzione di avanzamento della nave, e lo si espande nella direzione opposta. Vediamo com’è possibile “comprimere” o “espandere” lo spazio.

Occorre chiarire, a questo punto, cos’è esattamente lo spazio. Si tratta, in verità, di un concetto molto complesso, sia dal punto di vista fisico-matematico che da quello filosofico. Cominciamo dalla nozione più elementare, che definisce lo spazio come distanza tra due corpi. Si tratta di una definizione banale solo in apparenza, perché contiene una verità fondamentale: lo spazio esiste solo in presenza di materia (o energia) e non è concepibile, infatti, uno spazio “vuoto”; se dall’universo potessimo rimuovere tutta la materia e l’energia esistente, non avremmo un universo vuoto, ma, al contrario, non esisterebbe più l’universo. Quindi, niente materia, niente spazio. Dal punto di vista strettamente intuitivo, appare ovvio che non si possa parlare di distanza tra A e B se A e B non esistono. Lo spazio è “creato” dalla materia, la quale non è altro che un particolare “tipo” di spazio.

Facciamo un altro passo, e parliamo di tempo. Definire il tempo non è meno arduo che definire lo spazio, e solitamente le definizioni peccano di tautologia, giacché definiscono il tempo come durata o intervallo tra due eventi, senza riuscire a chiarire cosa sia la “durata”. Una prima osservazione che si può fare, però, è che, al pari dello spazio, anche l’esistenza del tempo richiede materia-energia; perché ci sia un “prima” e un “dopo” è necessario che ci si riferisca a “qualcosa” (di diverso dal tempo stesso), ad un “evento”. Spazio e tempo sono accomunati, nel loro essere, dalla necessità dell’esistenza della materia: niente materia, niente tempo, niente spazio.

Spazio e tempo hanno però un legame ben più stretto, accertato fin dalla nascita della fisica relativistica; legame talmente stretto da far considerare il tempo una delle dimensioni dello spazio: si parla, difatti, di spazio-tempo. Per capire come possano essere legati dei concetti che, apparentemente, non hanno niente in comune, pensiamo ad un oggetto qualunque: appare evidente che tale oggetto occupa una posizione ben definita nello spazio, che può essere determinata con precisione indicando le distanze da una serie di punti di riferimento (ad esempio, un mobile in una stanza avrà una certa altezza rispetto al pavimento e una certa distanza dalle pareti). Tuttavia tale oggetto in realtà si sta spostando attraverso il tempo; esso esisteva prima dell’osservazione ed esisterà dopo l’osservazione, sinché non verrà distrutto. In altre parole, qualunque cosa, oltre che esistere (e muoversi) nello spazio, esiste (e deve muoversi) anche nel tempo. Se così non fosse, se l’oggetto fosse “immobile” nel tempo, esso esisterebbe solo per un istante infinitesimo, per poi sparire nel nulla.

Abbiamo già visto che la meccanica relativistica descrive lo spazio-tempo come entità quadridimensionale curva. Il fatto che lo spazio sia curvo e “plasmabile” ha delle importanti conseguenze per i nostri fini, perché in tale tipo di spazio le distanze non sono “assolute” e la via più breve tra due punti non è necessariamente una retta. Tornando agli esempi del “meraviglioso mondo degli insetti bidimensionali”, la distanza più breve che unisce due punti su una sfera è l’arco di cerchio massimo (già visto, scusate le ripetizioni, ma servono per arrivare al punto.)

Così come abbiamo visto che è la gravità a modellare lo spazio, il quale è più curvo nelle regioni più prossime a masse elevate. A questo punto è chiaro perché si parla di curvatura: essa è precisamente ciò che indica tale termine, una “deformazione” dello spazio indotta da un campo gravitazionale. Cosa succede, esattamente, curvando lo spazio? Qualunque massa, come visto, è in grado di curvare lo spazio: poiché non può esistere spazio senza massa, ne deriva che lo spazio è sempre e necessariamente curvo, benché la curvatura sia maggiore in prossimità delle masse e minore (in ragione del quadrato della distanza) man mano che ci si allontana da esse.

Qualunque massa o onda in movimento nello spazio deve seguirne necessariamente la geometria e quando una massa o un’onda entrano in una regione dello spazio caratterizzata da una particolare curvatura, devono necessariamente percorrerne la struttura. In tal modo è spiegata l’attrazione gravitazionale: poiché lo spazio s’incurva sempre di più in prossimità di una massa, un corpo entrato in tale regione deve dirigersi verso la massa deformante, percorrendo il “baratro” gravitazionale da essa creato (a meno che non sia in possesso di una velocità sufficiente per “uscirne”). Questo è, per esempio, il motivo per cui i pianeti ruotano attorno alle stelle.

Appare quindi evidente che, poiché lo spazio non ha una struttura fissa e immodificabile, è possibile “plasmarlo” in modo da adeguarlo alle nostre esigenze. Se vogliamo, ad esempio, percorrere una grande distanza in tempi brevi, possiamo comprimere lo spazio tra il punto di partenza e quello di arrivo. In questo modo non sono più necessarie velocità elevate, e comunque irraggiungibili: è come se prendessimo una scorciatoia nello spazio stesso, una sorta di galleria che ci consente di evitare la scalata della montagna. Detto così, ovviamente, è troppo semplice, e troppo bello per essere vero. Vediamo quali sono i terribili problemi da affrontare.

Cominciamo a dire che le curvature prodotte da masse non certamente trascurabili, come pianeti e stelle, sono del tutto insufficienti per i nostri scopi: ad esempio, la massa di una stella di tipo G (come il Sole della Terra) è in grado di deflettere un raggio di luce di circa un millesimo di grado. Ma a noi servono curvature enormemente superiori. Noi non vogliamo semplicemente “piegare” lo spazio, ma “accartocciarlo”. Ci servono perciò curvature ben maggiori di quelle prodotte dalle stelle. Dove prendere la massa (o l’energia) necessaria, se persino quella del Sole è insufficiente? Tornano in ballo così le singolarità ossia, come abbiamo visto, le regioni dello spazio-tempo caratterizzate da un intenso campo gravitazionale, imprimente una configurazione “a cuspide”. In altre parole, la curvatura in una singolarità è talmente accentuata che le lunghezze sono ridotte a un valore prossimo allo zero, mentre il tempo scorre a un ritmo pressoché infinito. Singolarità che si trovano, come sappiamo, al centro dei buchi neri.

Torniamo al punto di partenza: come curvare lo spazio? Con la gravità. Cos’è che genera la gravità, o, meglio, i gravitoni, le particelle portatrici della forza gravitazionale? La massa. Per avere il campo gravitazionale di una stella devo per forza avere la massa di una stella? No! E’ qui che risiede l’inizio della soluzione dei nostri problemi. In natura, il campo gravitazionale ha simmetria sferica: si estende uniformemente in tutte le direzioni, con intensità decrescente rispetto al quadrato della distanza dalla sorgente.

Per i nostri fini, questo è un enorme spreco! In natura è bene che le cose vadano così, perché l’universo come lo conosciamo non potrebbe certamente esistere (e noi con lui) se la gravità operasse in una sola direzione. A noi non interessa curvare un enorme volume di spazio, bensì agire solo nella zona che intendiamo attraversare. La radiazione elettromagnetica si comporta, per certi aspetti, come il campo gravitazionale: anch’essa ha simmetria sferica, anch’essa ha intensità decrescente con il quadrato della distanza.

Ora, dobbiamo capire che a questo punto gli autori di Star Trek sono un passo avanti a noi (d’altra parte, le avventure di Kirk e Spock si svolgono nel futuro) e nella società da loro immaginata esiste una teoria che unifica la gravità alle altre tre forze (nucleare forte, nucleare debole ed elettromagnetica); questa cosa permette loro di porre onde gravitazionali in concordanza di fase ed ottenere delle emissioni coerenti, in modo da creare treni d’onda a propagazione lineare: cosa significhi, lo sanno solo loro, ma è scritto nel manuale dell’Enterprise…

Quindi, quello che si dovrebbe fare, per ottenere la curvatura dello spazio, sarebbe fare in modo che l’emissione di gravitoni avvenisse unicamente lungo una direzione prefissata, e con frequenze predeterminate. Le onde gravitazionali così emesse sarebbero poste in concordanza di fase, in modo che l’energia della successiva si sommi a quella della precedente, e si concentri in un ristretto volume di spazio. Così sarebbe possibile realizzare un campo gravitazionale di elevata intensità e limitata estensione, senza dovere disporre della massa necessaria per ottenerne uno di analoga intensità in modo “naturale”.

A questo punto è evidente che, facendo in modo che il campo gravitazionale (d’intensità analoga a quello esistente nelle singolarità) si formi nella direzione di avanzamento della nostra nave, esso provvederà innanzitutto a comprimere la regione di spazio che ci accingiamo ad attraversare, e in secondo luogo si sposterà con la nave stessa, comprimendo regioni di spazio poste in successione, senza soluzione di continuità. Tale risultato, però, è solo il primo passo, necessario ma non sufficiente. Il nostro campo gravitazionale portatile e regolabile ha sempre i difetti dei suoi colleghi naturali: la sgradevole tendenza a fare a pezzi noi, la nostra nave e l’effetto relativistico associato. Calma. Ancora non abbiamo finito.

Per sfuggire al pozzo gravitazionale creato davanti alla nostra nave per comprimere lo spazio davanti a noi, è necessario creare un “anti-pozzo” dietro, in modo che la compressione sia bilanciata dall’espansione (che dovrà avere pari intensità e “segno” opposto) e la nave sia sospinta su tale “onda” di spazio-tempo modificato, passata la quale lo spazio tornerà alla sua struttura normale. Comprimendo lo spazio nella direzione anteriore riduciamo la distanza dal punto di arrivo, ossia ci “avviciniamo” (benché, lo si ripete, la posizione del punto di arrivo non muta, poiché operiamo solo sullo spazio intermedio); espandendo lo spazio nella direzione opposta, invece, ci “allontaniamo” dal punto di partenza, sfuggendo al baratro gravitazionale creato davanti a noi (senza necessità di alcuna accelerazione).

La regione compresa tra il fronte di compressione e quello di espansione è detta, dagli autori di Star Trek, bolla di curvatura, e mantiene le condizioni di un qualunque sistema di riferimento in moto alla stessa velocità. In altre parole, le masse presenti all’interno della “bolla” non subiscono né gli effetti relativistici (aumento di massa, dilatazione del tempo etc.), né effetti inerziali, poiché la velocità posseduta prima all’ingresso in curvatura non cambia! Torniamo al campo di curvatura. Poiché esso produce tensioni gravitazionali elevatissime, appare ovvio che debba essere generato a una distanza di sicurezza dalla nave. Le gondole, contenenti le bobine generatrici del campo, sono solitamente collocate ai lati della nave e poste in modo che i treni d’onda emessi non entrino in contatto con le strutture dell’astronave.

La propulsione a curvatura deve inoltre essere attivata in regioni di spazio quanto più vuote possibile, e ciò per una serie di ragioni. Va considerato soprattutto che il campo generato dai motori di curvatura è pur sempre un campo gravitazionale, e di intensità elevatissima; di conseguenza, ove lo spazio non fosse vuoto, le masse circostanti, specie se modeste, verrebbero attirate con enorme forza e scagliate contro la nave, con conseguenze facilmente immaginabili. Non solo: le tensioni gravitazionali farebbero a pezzi tali masse per “effetto marea” ed è chiaro quali sarebbero le conseguenze se si trattasse di navi spaziali.

Di tutte le invenzioni irrealizzabili dell’universo di Star Trek, personalmente ritengo che la velocità di curvatura sia una di quelle meno assurde, forse per il semplice motivo che sappiamo abbastanza sulla natura dello spazio-tempo per descrivere esplicitamente come si potrebbe utilizzare, almeno in linea di principio, lo spazio curvo per conseguire molti degli elementi essenziali del viaggio spaziale interstellare al modo di Star Trek. Sappiamo che, in assenza di tali possibilità, probabilmente non potremo mai viaggiare attraverso la Galassia. D’altro canto non abbiamo idea se le condizioni fisiche richieste per conseguire tali risultati siano realizzabili in pratica o anche solo permesse in via teorica. È chiaro, infine, che, se queste risposte fossero affermative, per realizzare tali possibilità una civiltà dovrebbe essere in grado di controllare energie molto superiori a qualsiasi quantità di energia che possiamo immaginare oggi.

Suppongo che si potrebbe adottare l’opinione ottimistica che queste meraviglie veramente notevoli non siano impossibili, almeno a priori. Esse dipendono semplicemente da una possibilità remota: la capacità di creare e rinnovare materia ed energia esotiche. Tuttavia sono ancora ottimista. Fondamentalmente siamo come quei minuscoli insetti che vivono su un foglio di gomma e viviamo in un universo la cui vera forma rimane nascosta alla nostra vista. Eppure, nel corso di meno di venti generazioni – da Newton a oggi – abbiamo utilizzato le semplici leggi della fisica per illuminare le profondità dello spazio e del tempo.

Forse non potremo mai salire a bordo di astronavi in partenza verso le stelle, ma, pur essendo prigionieri su questo minuscolo pianeta azzurro siamo riusciti a investigare il cielo notturno e a svelarne grandi meraviglie, e molte altre senza dubbio ne scopriremo. Se la fisica non può darci ciò di cui abbiamo bisogno per vagare nella Galassia, ci dà ciò di cui abbiamo bisogno per portare la Galassia fino a noi. Almeno con la fantasia.

 

 

 

 

 

 

Fonti: LA FISICA DI STAR TREK, Lawrence M. Krauss, Longanesi 1996

Beam me up, Scotty!

Chi non conosce Star Trek? (Coloro che hanno pensato ai film, sappiano che Star Trek è un “media franchise” di genere fantascientifico che ha avuto inizio nel 1966 con una serie televisiva ideata da Gene Roddenberry, divenuta in seguito tra le più popolari nella storia della televisione. Dal successo della prima serie – in larga parte postumo – sono derivate nel corso di quasi cinquant’anni altre cinque serie televisive (di cui una a cartoni animati) e dodici pellicole cinematografiche!)

L’immagine che gli spettatori hanno dell’universo di Star Trek è inscindibilmente legata a un avanzato sviluppo tecnologico. Il divario tecnologico è peraltro uno degli aspetti che più spesso emerge negli episodi di Star Trek. Le tecnologie di Star Trek (o “treknologie”, come sono state definite con un felice neologismo) non smettono di stupire lo spettatore, anche quando, con decenni di distanza dalla prima serie, sono divenute realtà. Star Trek ha anticipato di circa 40 anni molti oggetti tecnologici che solamente in seguito sono diventati di uso quotidiano come i minidischi, i telefoni satellitari (comunicatori della serie classica), i computer palmari e tablet PC (i PADD – Personal Access Display Device, D-Pad nella traduzione italiana), il traduttore universale.

La serie ha inoltre introdotto nell’immaginario collettivo numerose altre possibilità futuristiche che sono oggetto di ricerche scientifiche come il teletrasporto quantistico, i viaggi più veloci della luce e nel tempo.

Ed è stato il teletrasporto l’invenzione che più ha scosso l’immaginario collettivo. Ma come funziona e perchè nacque? E soprattutto, si potrebbe realizzare?

E’ una notizia dell’ultima ora la realizzazione di un replicatore a distanza (Teletrasporto alla Star Trek con le stampanti 3D) ma per adesso torniamo al 1966…

Gene Roddenberry si pose un problema: aveva un bel progetto di astronave: come un pinguino in acqua, l’Enterprise poteva scivolare elegantemente nelle profondità dello spazio, ma come un pinguino a terra avrebbe avuto problemi a muoversi al suolo se mai avesse tentato di atterrare. Fatto forse più importante, gli scarsi fondi a disposizione per un programma televisivo settimanale impedivano di far atterrare una grande astronave ogni settimana.

Come risolvere quindi questo problema? Semplice: assicurandosi che l’astronave non dovesse mai atterrare. Si doveva trovare qualche altro modo per spostare i membri dell’equipaggio dalla nave spaziale alla superficie di un pianeta. Prima ancora di avere il tempo di dire: «Mi faccia risalire» il teletrasporto era nato.

Forse nessun altro tipo di tecnologia, tranne il motore di curvatura, ricorre più spesso in ogni missione delle navi spaziali della Federazione. E anche chi non ha mai guardato un episodio di Star Trek riconosce la magica espressione appena citata. Essa ha permeato la cultura popolare americana. Ho letto di un giovane che, guidando in stato di ebbrezza, era passato col rosso incappando proprio in una macchina della polizia. All’udienza il giudice gli domandò se avesse qualcosa da dire. Il giovane, disperato, rispose: «Sì, vostro onore», e alzatosi in piedi estrasse il portafogli, lo aprì e mormorò dentro di esso: «Scotty, mi faccia risalire!»

Quest’episodio è probabilmente apocrifo, ma testimonia l’impatto che quest’ipotetica tecnologia ha avuto sulla nostra cultura: un impatto tanto più notevole in quanto probabilmente nessun altro elemento della tecnologia fantascientifica a bordo dell’Enterprise è così poco plausibile. Per creare un dispositivo come il teletrasporto si dovrebbero risolvere più problemi di tipo pratico e teorico di quanti si possano immaginare. Le difficoltà implicano l’intero spettro della fisica e della matematica, comprese la teoria dell’informazione, la meccanica quantistica, la relazione di massa ed energia di Einstein, la fisica delle particelle elementari ed altre cose ancora.

Il problema chiave che il teletrasporto ci costringe ad affrontare è il seguente: qual è il modo più rapido e più efficiente per spostare, dalla nave alla superficie di un pianeta, circa 1028 (1 seguito da 28 zeri) atomi di materia combinati in una configurazione complessa a comporre un singolo essere umano?

Consideriamo, per esempio, un quotidiano. Un’edicola vende una copia ad ogni lettore. Ma in un quotidiano digitale le stesse informazioni possono essere conservate sotto forma di bit. Un bit è un 1 o uno 0; i bit vengono combinati in gruppi di otto, chiamati byte, per rappresentare lettere o numeri. Ora, un numero arbitrariamente grande di utenti può avere accesso alla medesima locazione di memoria su un computer essenzialmente nello stesso tempo, cosicché in un’edicola digitale ogni singola persona sulla Terra che potrebbe altrimenti trovarsi nella necessità di comprare un giornale può leggerlo da una singola fonte. In questo caso, chiaramente, è meno importante, e senza dubbio meno efficiente, avere a disposizione gli atomi reali che compongono il quotidiano che non poter registrare i bit .

E nel caso di persone? Volendo teletrasportare delle persone da un posto all’altro, si devono spostare i loro atomi o solo la loro informazione? A prima vista si potrebbe pensare che sia molto più facile spostare il contenuto d’informazione; fra l’altro l’informazione può viaggiare alla velocità della luce. Nel caso delle persone ci sono però due problemi che non si pongono nel caso dei libri; innanzitutto si deve estrarre l’informazione, che non è una cosa tanto facile; e poi la si deve ricombinare con della materia. Dopo tutto le persone, diversamente dai libri, richiedono gli atomi.

Non sembra che gli autori di Star Trek abbiano mai capito chiaramente che cosa vogliono che faccia il teletrasporto. Deve trasmettere gli atomi e i bit, o solo i bit? In “Next Generation Technical Manual” si descrive il processo nei particolari: innanzitutto il teletrasporto si aggancia sul bersaglio. Poi analizza l’immagine da trasportare, la «smaterializza», la tiene per un po’ in un «buffer degli schemi» e poi trasmette a destinazione il «flusso di materia», contenuto in un «fascio di confinamento anulare». Pare quindi che il teletrasporto trasmetta la materia assieme all’informazione.

L’unica difficoltà in questo quadro è che è in disaccordo con ciò che a volte fa il teletrasporto. In almeno due casi ben noti, il tele trasporto aveva cominciato con una persona e ne fece salire due. Nel famoso episodio classico “Il duplicato”, un cattivo funzionamento del teletrasporto divide Kirk in due versioni diverse di se stesso, una buona e una cattiva. In uno sviluppo più interessante, e permanente, nell’episodio “Il Duplicato”, della serie The Next Generation, scopriamo che il tenente Riker era stato diviso in due copie durante il trasporto dal pianeta Nervala IV alla Potemkin. Una copia era poi tornata sana e salva alla Potemkin, mentre l’altra era stata riflessa di nuovo sul pianeta, dove Riker aveva vissuto da solo per otto anni.

Se il teletrasporto trasmette sia il flusso materiale sia il segnale d’informazione, questo fenomeno di divisione è impossibile. Il numero di atomi finale sarà uguale al numero iniziale. Non c’è alcuna possibilità di costruire repliche di persone in questo modo. Se invece si trasmette solo l’informazione, si può immaginare di ricombinarla con atomi che potrebbero essere immagazzinati sulla nave, e formare quante copie si vogliono di un individuo (ed è quello che fa il replicatore a cui accennavo).

Ma il problema è piuttosto serio. Se vuoi eliminare 1028 atomi, devi affrontare un compito alquanto difficile. Supponiamo, per esempio, che tu voglia semplicemente trasformare tutto questo materiale in energia pura. Quanta energia ne risulterebbe? Ce lo dice la formula di Einstein E = mc. Trasformando improvvisamente in energia 75 kg di materiale, libereremmo un’energia equivalente a più di mille bombe all’idrogeno di un megatone. È difficile immaginare come farlo in un modo amichevole per l’ambiente.

Questi ragionamenti suggeriscono che potrebbe essere preferibile immaginare un teletrasporto che portasse assieme al segnale un flusso di materia, come ci dicono che fanno i dispositivi per il teletrasporto di Star Trek. Il problema diventa quindi: come si possono spostare gli atomi? La difficoltà risulta essere di nuovo di tipo energetico, anche se in un modo un po’ più sottile. Che cosa si richiederebbe per «smaterializzare» qualcosa nel teletrasporto? Per rispondere a questa domanda, dobbiamo considerare in modo un po’ più accurato una domanda più semplice: che cos’è la materia? Tutta la materia normale è formata da atomi, che a loro volta sono composti da nuclei centrali molto densi circondati da una nube di elettroni. Come potrete ricordare dai corsi di chimica o di fisica delle scuole superiori, la maggior parte del volume di un atomo è composto da spazio vuoto. La regione occupata dagli elettroni esterni è circa diecimila volte più estesa della regione occupata dal nucleo.

Perché, se gli atomi sono formati per la maggior parte da spazio vuoto, la materia non passa attraverso altra materia? La risposta è che quel che rende solido un muro non è l’esistenza delle particelle bensì quella dei campi elettrici che si estendono fra una particella e l’altra. Quando io batto una manata sul tavolo, la mia mano è fermata primariamente dalla repulsione elettrica fra gli elettroni degli atomi della mia mano e gli elettroni degli atomi che formano il tavolo, e non dalla mancanza di spazio fra gli elettroni.

Questi campi elettrici non solo rendono corporea la materia nel senso di impedire agli oggetti di passare l’uno attraverso l’altro, ma ne assicurano anche la coesione. Per alterare questa situazione normale, si devono perciò superare le forze elettriche che agiscono fra gli atomi. Per superare queste forze si richiede lavoro, che consuma energia. È così che funzionano in effetti le reazioni chimiche. Le configurazioni di singoli insiemi di atomi e i loro legami vengono alterati in conseguenza di scambi di energia. Per esempio, se si inietta dell’energia in un miscuglio di nitrato d’ammonio e di olio combustibile, le molecole dei due materiali possono ridisporsi, e nel corso di questo processo può essere liberata l’«energia di legame» che teneva insieme i materiali originari. Questa liberazione, se è abbastanza rapida, causerà una grande esplosione.

L’energia di legame fra gli atomi è, però, piuttosto piccola rispetto all’energia di legame delle particelle – protoni e neutroni – che compongono i nuclei atomici, che sono incredibilmente densi. Le forze che tengono assieme queste particelle in un nucleo danno energie di legame milioni di volte maggiori delle energie di legame fra gli atomi. Perciò le reazioni nucleari liberano una quantità di energia significativamente maggiore di quella liberata dalle reazioni chimiche; ecco perché le armi nucleari sono così potenti.

Infine, l’energia di legame che tiene assieme i quark – ossia le particelle elementari che formano i protoni e i neutroni stessi – è ancora maggiore di quella che assicura la coesione di protoni e neutroni nei nuclei. In effetti si ritiene, sulla base di calcoli resi possibili dalla teoria che descrive le interazioni dei quark, che per separare completamente i quark che compongono ogni protone o neutrone si richiederebbe una quantità d’energia infinita.

Sulla base di questo argomento potremmo ritenere impossibile una completa dissoluzione della materia nei quark, i suoi componenti fondamentali, e in effetti è così, almeno a temperatura ambiente. La stessa teoria che descrive le interazioni dei quark all’interno dei protoni e dei neutroni ci dice però che, se riscaldassimo i nuclei a 1000 miliardi di gradi circa (una temperatura un milione di volte maggiore di quella vigente nella regione centrale del Sole), non solo i quark che compongono i nuclei perderebbero le loro energie di legame, ma la materia perderebbe improvvisamente quasi tutta la sua massa trasformandosi in radiazione, o, nel linguaggio del nostro teletrasporto, smaterializzandosi.

Perciò tutto ciò che si deve fare per sconfiggere l’energia di legame al suo livello più fondamentale (in realtà al livello a cui si riferisce il manuale tecnico di Star Trek) è di riscaldarla a 1000 miliardi di gradi. In unità di energia, ciò implica che si fornisca sotto forma di calore il 10 per cento circa della massa di quiete di protoni e neutroni. Per riscaldare a tale temperatura un campione della grandezza di un essere umano occorrerebbe perciò il 10 per cento circa dell’energia richiesta per annichilare tale materiale, ossia l’energia equivalente a cento bombe all’idrogeno di un megatone.

Ma forse non abbiamo bisogno di scomporre la materia fino al livello dei quark. Forse ai fini del teletrasporto potrebbe essere sufficiente una smaterializzazione al livello dei protoni e dei neutroni, o forse anche solo al livello atomico. Certamente le richieste di energia sarebbero in questo caso molto inferiori, anche se sempre grandissime. Purtroppo se, imitando la politica dello struzzo, nascondiamo questo problema sotto il tappeto, ci esponiamo a un problema ancora più grave. Una volta infatti che si sia conseguito il flusso materiale, composto ora da singoli protoni, neutroni ed elettroni, o forse interi atomi, lo si deve teletrasportare, presumibilmente a una frazione significativa della velocità della luce.

Ora, per far muovere particelle come i protoni e i neutroni a velocità prossime a quella della luce, si deve dar loro un’energia paragonabile a quella della loro massa di quiete. Questa risulta essere circa dieci volte maggiore della quantità di energia richiesta per riscaldare i protoni fino a scomporli in quark. Ma anche se occorre più energia per particella per accelerare i protoni a una velocità prossima a quella della luce, questo è tuttavia un compito più facile di quello di depositare e immagazzinare abbastanza energia all’interno dei protoni per un tempo abbastanza lungo per riscaldarli a una temperatura tale per determinarne la dissoluzione in quark.

Ancora una volta, però, si resta colpiti dall’appropriatezza della scelta terminologica degli autori di Star Trek. La fusione dei protoni e la loro separazione in quark è quella che si chiama in fisica una transizione di fase. Ed ecco che, se si scorre il Next Generation Technical Manual per cercare il nome dei dispositivi del teletrasporto che smaterializzano la materia, si trova che sono chiamati «bobine di transizione di fase». I futuri progettisti di teletrasporti avranno dunque una scelta. Essi dovranno o trovare una fonte di energia in grado di produrre temporaneamente un’energia circa 10.000 volte maggiore dell’energia totale consumata oggi sulla Terra, nel qual caso potrebbero formare un «flusso di materia» atomica capace di muoversi assieme all’informazione a una velocità prossima a quella della luce, oppure potrebbero ridurre di un fattore 10 le richieste totali di energia e scoprire un modo per riscaldare istantaneamente un essere umano a una temperatura un milione di volte circa superiore a quella vigente nella regione centrale del Sole.

Ora facciamo una semplice stima di quanta informazione sia codificata in un corpo umano. Cominciamo dalla stima classica di 1028 atomi. Per ogni atomo dobbiamo codificare innanzitutto la posizione, la quale richiede tre coordinate (x, y e z). Poi dovremmo registrare lo stato interno di ogni atomo, comprendente informazioni come: quali livelli di energia siano occupati dai suoi elettroni, se esso sia o no legato a un atomo vicino per comporre una molecola, se la molecola vibri o ruoti e via dicendo. Cercando di essere prudenti, supponiamo di poter codificare tutte le informazioni relative a un atomo in un kilobyte di dati. (Un byte corrisponde a 8 bit, equivalenti, nella scrittura, a una lettera, un numero o un segno d’interpunzione. Supponiamo che una cartella standard corrisponda a circa 1 kilobyte.) Ciò significa che avremmo bisogno di circa 1028 KB per memorizzare uno schema umano nel buffer degli schemi. Vi ricordo che 1028 è un uno seguito da 28 zeri (ossia 10 miliardi di miliardi di miliardi).

Confrontiamo questa informazione, per esempio, con quella contenuta in tutti i libri che siano mai stati scritti. Le maggiori biblioteche contengono vari milioni di volumi, cosicché vorrei essere generoso e dire che esistono un miliardo di libri diversi (un libro ogni sei persone attualmente viventi sul nostro pianeta). Diciamo che ogni libro contiene in media l’equivalente di un megabyte (MB) (anche questa è una stima generosa). Tutta l’informazione contenuta in tutti i libri che siano mai stati scritti richiederebbe quindi per essere memorizzata circa 1012 kilobyte, ossia circa un bilione, ovvero mille miliardi, di kilobyte. Questa cifra è più piccola di circa sedici ordini di grandezza – ossia di diecimila bilioni di volte – della capacità di memoria necessaria per registrare una singola configurazione umana! Quando i numeri sono così grandi, diventa difficile capire l’immensità del compito. Forse vale la pena di cercare di spiegarlo facendo un paragone. Il rapporto fra l’informazione contenuta in una configurazione umana e quella contenuta in tutti i libri che siano mai stati scritti è diecimila volte maggiore del rapporto fra l’informazione contenuta in tutti i libri che siano mai stati scritti e l’informazione contenuta in questa pagina.

La memorizzazione di una quantità d’informazione così grande è, per usare una minimizzazione cara ai fisici, un compito non banale. Gli hard disk più grandi attualmente disponibili in commercio possono contenere circa 8 terabyte (ossia 1012 byte). Se ogni disco ha uno spessore di circa 10 cm, disponendo uno sull’altro tutti i dischi attualmente necessari per memorizzare una configurazione umana, costruiremmo una pila alta un trecentesimo della distanza che ci separa dal centro della Galassia: circa 10.000 anni-luce, ossia un viaggio di cinque anni con l’Enterprise a curvatura 9!

Difficoltà non meno grandi presenta il richiamo di quest’informazione in tempo reale. I meccanismi più veloci per il trasferimento di informazione digitale sono in grado di trasferire attualmente poco meno di circa 10 GB al secondo. A questo ritmo, per scrivere su nastro i dati che descrivono uno schema umano occorrerebbe un tempo circa 20 volte maggiore dell’età attuale dell’universo (supponendo un’età approssimativa di 10 miliardi di anni)! Immaginate la tensione drammatica: Kirk e McCoy sono fuggiti dalla superficie della colonia penale di Rura Penthe. Per salire col teletrasporto sull’astronave non dispongono certamente di un periodo di tempo paragonabile all’età dell’universo; al trasferimento di quel milione di miliardi di miliardi di megabyte di informazione sono concessi solo pochi secondi, il tempo impiegato dal carceriere per puntare la sua arma prima di sparare.

Ma benché questa sfida sia difficilissima, io penso che in quest’area si potrebbe effettivamente pervenire a risultati concreti nel XXIII secolo. Il mio ottimismo deriva semplicemente dall’estrapolazione dell’attuale ritmo di crescita della tecnologia dei computer. Usando il precedente metro di misura del miglioramento di un fattore 100 per ogni decennio nella memorizzazione e nella rapidità, e dividendolo per 10 per motivi prudenziali – e tenendo conto che noi oggi siamo di circa 19 potenze del 10 lontani dall’obiettivo – possiamo attenderci di poter finalmente disporre della tecnologia informatica necessaria per affrontare con successo il compito del trasferimento di informazione per il teletrasporto fra 190 anni, appunto all’alba del XXIII secolo.

Lo dico, ovviamente, senza avere alcuna idea di come si riuscirà a risolvere il problema. È chiaro che, per poter registrare più di 1025 KB di informazione in un qualsiasi dispositivo in scala umana, si dovrà sfruttare ogni atomo del dispositivo come sito di memoria. La nozione emergente dei computer biologici, in cui la dinamica molecolare imita i processi logici digitali e in cui le 1025 particelle circa di un campione macroscopico operano tutte simultaneamente, mi sembra la più promettente sotto questo aspetto.

Dovrei inoltre ammonire a non prendere troppo sul serio le mie previsioni. Io non sono un informatico e il mio cauto ottimismo potrebbe perciò riflettere semplicemente la mia ignoranza. Traggo però qualche conforto dall’esempio del cervello umano, che è avanti di anni-luce per complessità e generalità rispetto a tutti i sistemi di calcolo esistenti. Se la selezione naturale è stata in grado di sviluppare un così bel dispositivo di memorizzazione e richiamo di informazione, credo che anche noi possiamo ancora fare molta strada.

Per completare (e complicare) il quadro, si deve tener conto anche della meccanica quantistica. Al livello microscopico a cui si deve operare per analizzare e ricreare la materia nel teletrasporto, vigono le leggi strane ed esotiche della meccanica quantistica, in virtù delle quali le particelle possono comportarsi come onde e le onde possono comportarsi come particelle. Io non mi propongo certamente di tenere qui un corso di meccanica quantistica. Si deve però tenere presente che a scale microscopiche non si possono separare osservato e osservatore. Eseguire una misurazione significa alterare un sistema, di solito per sempre. Questa semplice legge può essere parametrizzata in molti modi diversi, ma la sua formulazione più famosa è forse quella nella forma del principio di indeterminazione di Heisenberg. Questa importante legge – che sembra abolire la classica nozione del determinismo in fisica, anche se in realtà a un livello fondamentale non è così – divide il mondo fisico in due insiemi di quantità osservabili: lo yin e lo yang, se così vi pare. Essa ci dice che, qualunque tecnologia possa essere inventata in futuro, è impossibile misurare certe combinazioni di osservabili con una precisione alta a piacere. A scale microscopiche si potrebbe misurare con una precisione a piacere la posizione di una particella; Heisenberg ci dice però che, in questo caso, non possiamo conoscere esattamente la sua velocità (e quindi non possiamo sapere dove si troverà nell’istante successivo). Oppure potremmo accertare lo stato di energia di un atomo con una precisione a piacere, ma in questo caso non possiamo determinare esattamente quanto a lungo rimarrà in tale stato. E l’elenco potrebbe continuare.

Queste relazioni sono al centro della meccanica quantistica e non perderanno mai la loro validità. Finché lavoreremo a scale in cui si applicano le leggi della meccanica quantistica – le quali, a quanto indicano le nostre conoscenze, sono quanto meno più grandi della scala a cui diventano importanti effetti gravitazionali, ossia a circa 10-33 cm – siamo costretti a tenerne conto.

C’è un ragionamento fisico lievemente imperfetto, ma tuttavia molto soddisfacente, che ci consente una comprensione euristica del principio di indeterminazione. La meccanica quantistica attribuisce a tutte le particelle un comportamento ondulatorio, e le onde hanno una proprietà sorprendente: sono disturbate solo quando incontrano oggetti più grandi della loro lunghezza d’onda (la distanza fra due creste successive). Per rendersene conto nel modo più chiaro è sufficiente osservare le onde del mare. Un ciottolo che sporga appena dalla superficie dell’acqua non avrà alcun effetto sulle forma delle onde che avanzano verso la spiaggia, mentre un grosso scoglio avrà dietro di sé una regione di acqua calma.

Così, se vogliamo «illuminare» un atomo – cioè far rimbalzare della luce su di esso per vedere dove si trova – dobbiamo farlo con luce di una lunghezza d’onda abbastanza piccola da poter essere disturbata dall’atomo. Le leggi della meccanica quantistica ci dicono però che le onde luminose viaggiano in piccoli pacchetti, o quanti, che chiamiamo fotoni (come i «siluri fotonici» nelle navi spaziali). I singoli fotoni di ogni lunghezza d’onda hanno un’energia che è inversamente proporzionale alla loro lunghezza d’onda. Quanto maggiore è la risoluzione che desideriamo, tanto minore è la lunghezza d’onda della luce che dobbiamo usare. Ma quanto minore è la lunghezza d’onda, tanto maggiore è l’energia dei pacchetti. Se, per poter osservare un atomo, lo bombardiamo con un fotone ad alta energia, possiamo stabilire esattamente dove si trovava quando il fotone lo ha colpito, ma il processo d’osservazione stesso – ossia il fatto di colpire l’atomo col fotone – trasferisce all’atomo un’energia abbastanza grande da modificare in qualche misura la velocità e direzione del suo moto.

È perciò impossibile risolvere gli atomi e le loro configurazioni di energia con la precisione necessaria per ricreare esattamente uno schema umano. Un’incertezza residua in alcune delle osservabili è inevitabile. Che cosa questo fatto possa significare per la precisione del prodotto finale dopo il trasporto è un delicato problema biologico su cui posso solo fare delle congetture.

Questo problema non sfuggì agli autori di Star Trek, i quali si resero conto degli inevitabili vincoli della meccanica quantistica sul tele trasporto. In virtù di una cosa a cui i fisici non possono di solito appellarsi – ossia la licenza artistica –, essi introdussero i «compensatori di Heisenberg», che permettono la «risoluzione quantica» di oggetti. Quando un intervistatore domandò al consulente tecnico di Star Trek Michael Okuda come funzionassero i compensatori di Heisenberg, egli rispose semplicemente: «Benissimo, grazie!»

I compensatori di Heisenberg assolvono un’altra funzione utile nelle storie di Star Trek. Ci si può domandare, come ho fatto io stesso, perché il teletrasporto non sia anche un replicatore di forme di vita. Dopo tutto, a bordo delle navi spaziali c’è un replicatore che fa apparire magicamente, a un semplice comando a voce, bicchieri d’acqua o di vino (anche earl grey!) negli alloggi di ogni membro dell’equipaggio. La risposta sembra essere che la tecnologia dei replicatori può operare solo a una «risoluzione a livello molecolare» e non a una «risoluzione quantica». Ciò dovrebbe spiegare perché non sia possibile la replica di esseri viventi, e anche perché i membri dell’equipaggio si lagnino sempre che i cibi forniti dai replicatori non sono mai così buoni come i cibi veri, e perché Riker, fra gli altri, preferisca cucinarsi omelette e altre ghiottonerie nel modo tradizionale.

Consideriamo un’ultima difficoltà per il teletrasporto, come se quelle che abbiamo visto finora non fossero ancora sufficienti. Il trasporto dalla nave spaziale a un pianeta è difficile, ma ancora più difficile è l’operazione inversa. Per far risalire un membro dell’equipaggio sulla nave, i sensori a bordo dell’Enterprise devono individuare il membro dell’equipaggio sul pianeta sottostante. Inoltre, devono analizzare l’individuo prima della smaterializzazione e del trasporto del flusso di materia. L’Enterprise deve quindi avere un telescopio abbastanza potente da analizzare oggetti a una risoluzione atomica sulla superficie di un pianeta, e spesso anche sotto la superficie. Il normale raggio d’operazione dell’apparecchiatura è, a quanto ci viene detto, di circa 40.000 km, ossia di più di tre volte il diametro terrestre. Questo è il numero che useremo per la stima seguente.

Tutti hanno visto fotografie delle cupole dei massimi telescopi del mondo, come il telescopio Keck nelle Hawaii (il più grande del mondo), o il telescopio di Monte Palomar in California. Vi siete mai domandati perché si costruiscano telescopi sempre più grandi? (Non è solo una mania di grandezza, come amano sostenere alcune persone.) Come si richiedono acceleratori di dimensioni sempre maggiori per scandagliare la struttura della materia a scale sempre più piccole, così sono necessari telescopi di volta in volta maggiori se si vogliono risolvere oggetti celesti via via più deboli e più lontani. Il ragionamento è semplice: la luce, a causa della sua natura ondulatoria, tende a diffrangersi o a diffondersi ogni volta che passa attraverso un’apertura. La luce proveniente da una sorgente puntiforme lontana, passando per l’obiettivo del telescopio, produce un’immagine un po’ diffusa, cosicché, invece di vedere un punto di luce si vedrà un piccolo disco indistinto. Ora, se due sorgenti puntiformi nel campo visivo sono a una distanza fra loro inferiore al diametro apparente dei loro dischi, sarà impossibile risolverle come oggetti separati in quanto si avrà una sovrapposizione dei loro dischi nell’immagine osservata. Ora, quanto maggiore sarà il diametro dell’obiettivo, tanto minore sarà il disco apparente di una sorgente puntiforme. Perciò, per risolvere oggetti sempre più piccoli, i telescopi dovranno avere un’apertura sempre maggiore.

C’è un altro modo per risolvere piccoli oggetti con un telescopio. La lunghezza d’onda della luce, o di qualsiasi radiazione si voglia usare come sonda, dev’essere minore dell’oggetto che si cerca di analizzare, secondo il ragionamento esposto prima. Così, se si vuol risolvere la materia alla scala atomica, che si aggira attorno a qualche miliardesimo di centimetro, si deve usare una radiazione di una lunghezza d’onda di meno di un miliardesimo di centimetro circa. Se si sceglie una radiazione elettromagnetica, si richiederà l’uso o di raggi X o di raggi gamma. Qui si pone immediatamente un problema, poiché tali radiazioni sono dannose alla vita, e quindi l’atmosfera di ogni pianeta della Classe M le filtrerà, così come fa la nostra atmosfera. Il dispositivo per il teletrasporto dovrà perciò usare sonde non elettromagnetiche, come neutrini o gravitoni.

In ogni modo, dato che l’Enterprise usa una radiazione con una lunghezza d’onda di meno di un miliardesimo di millimetro e analizza un oggetto a 40.000 km di distanza con una risoluzione alla scala atomica, si può fare un calcolo. Secondo i calcoli, la nave spaziale avrebbe bisogno a questo scopo di un telescopio con un’apertura di oltre 50.000 km di diametro!

Non dovremmo perciò lasciarci troppo scoraggiare dalla chiara impossibilità di costruire un dispositivo per il teletrasporto in grado di assolvere le funzioni necessarie. O, per esprimerci in modo meno negativo, la costruzione di un tale dispositivo ci richiederebbe di riscaldare della materia sino a una temperatura un milione di volte superiore a quella vigente al centro del Sole, di spendere in una singola macchina più energia di quella usata attualmente da tutta l’umanità, di costruire telescopi di apertura maggiore del diametro della Terra, di migliorare gli attuali computer di un fattore di mille miliardi di miliardi e di evitare le leggi della meccanica quantistica. Non sorprende che il dottor McCoy fosse terrorizzato dal teletrasporto!

 

 

Fonti: LA FISICA DI STAR TREK – di Lawrence M. Krauss – Longanesi 1996