Lo spirito dei materiali

Scott: Mettiamola diversamente… Quanto deve essere spesso un pezzo del vostro “plexiglas” grande diciotto metri per tre per sostenere la pressione di cinquecento metri cubici d’acqua?

Nichols: È semplice, quindici centimetri. Abbiamo in lavorazione pezzi così.

Scott: Sì, ho notato… Adesso supponga, solo supponga, che io le possa mostrare il modo per fabbricare una parete che possa servire allo stesso scopo… Ma spesso solamente due centimetri e mezzo. Sarebbe una cosa molto interessante per lei, eh?

Nichols: Sta scherzando!

McCoy: Potrebbe il professore usare il suo computer?

Nichols: Prego. [Scott si siede davanti al computer]

Scott: Computer? Computer? Ah! [prende il mouse e lo usa come microfono] Salve, computer!

Nichols: Forse usando la tastiera…

Scott: La testiera… Pittoresco. [digita a velocità miracolosa la formula]

Nichols: Alluminio trasparente, vedo bene?!?

Scott: L’hai detto, amico…

Nichols: Aspetti, ci vorranno anni solamente per calcolare la dinamica di questa matrice!

McCoy: Sì, ma lei diventerebbe ricco al di sopra di qualunque brama di ricchezza!

Scott: Allora, pensa che questa cosa le interessi… O premo il tasto e cancello tutto quanto?

Nichols: No!!! No. [una signora fa per entrare nell’ufficio] Non ora Madeline!! [lei esce] Ma con esattezza, che cosa avete in mente?

McCoy: Be’, ci lasci parlare un attimo da soli… [prende in disparte Scott] Naturalmente ti rendi conto che se gli riveliamo la formula noi alteriamo il futuro?

Scott: No, perché? Chi ci dice che non è stato lui, l’inventore?

McCoy: Mhhh. Già…

(Star Trek IV – Rotta verso la Terra – 1986)

Uno dei film più divertenti della saga di Star Trek è quello che ho menzionato, ma oltre ad essere una miniera di citazioni, poiché l’equipaggio di Kirk e soci si ritrova negli anni ‘80 grazie ad un viaggio nel tempo, con tutto quel che ne consegue, ci fa capire come la fantascienza a volte sia aruspice della tecnologia del futuro. Per chi non lo sapesse, l’aruspice era, nell’antica Roma, il sacerdote designato all’esame delle viscere delle vittime nei sacrifici, dalle quali traeva indizi e vaticini sul futuro.

Dai satelliti geostazionari ai robot, dalla bomba atomica ai radar passando per il primo viaggio sulla Luna, la fantascienza ha spesso anticipato di molti decenni le conquiste della scienza del mondo “reale” e Star Trek, con 718 episodi televisivi, 13 film e 22 cartoni animati, è stata tra quelle che ne ha azzeccate di più.

Quando Gene Roddenberry, l’inventore della saga, iniziò a scrivere la sceneggiatura, aveva fondamentalmente due idee: creare un futuro di pace e con una visione ottimista, corredato da tecnologia che fosse quanto meno plausibile.

Certo, inventò il teletrasporto, ma quello lo fece per questioni di budget. Molto più veloce ed economico smaterializzare una persona che far atterrare una nave!

Ma le altre invenzioni, come ad esempio le “porte automatiche” scorrevoli (oggi presenti ovunque, nei supermercati, negli alberghi, negli aeroporti, ma anche nelle farmacie e presto, mi auguro, nelle case), o il “comunicatore”, dispositivo per comunicare a distanza precursore dello smartphone (era il 1966!!!), o ancora il “traduttore universale” di Uhura, prezioso per parlare con Sulibani, Tholiani, Klingon e Andoriani, ormai realtà anche portatile, non fecero altro che precorrere i tempi.

Già confrontando un qualsiasi tablet odierno con un computer di soltanto dieci anni fa, le differenze sono davvero stupefacenti. La tecnologia si è evoluta ad un ritmo impressionante, rendendo i dispositivi a nostra disposizione più piccoli, più potenti e molto più portabili. Tutto ciò anche grazie alla rapida evoluzione dell’hardware e all’impiego di nuovi materiali.

La citazione iniziale introduce l’argomento di cui vorrei parlare questa volta, un’altra predizione azzeccata di Star Trek, e cioè l’alluminio trasparente, ma visto che ci sono parlerò anche di altri materiali del futuro.

Lo avevo capito nell’89, quando, dovendo scegliere il ramo dell’ingegneria meccanica in cui specializzarmi scelsi appunto “materiali”, salvo poi fare tutt’altro nella vita (e il professore di metallurgia, bocciandomi tre volte, ha contribuito non poco).

Una volta scoperti i materiali, l’uomo ha imparato a combinarli tra loro e quando la chimica e la fisica hanno raggiunto un certo progresso, ha imparato anche a fabbricarne di nuovi. Ovviamente nell’antichità poteva accadere che un popolo scoprisse un metodo per rendere migliori i metalli e ne mantenesse il segreto per anni al fine di mantenere l’egemonia militare sui popoli vicini, ma di questi tempi le ricerche vengono condivise nella comunità scientifica.

Quasi sempre, almeno. Vediamo dunque, qualche materiale tra quelli che in futuro cambieranno la vita dell’umanità e le tecnologie che ne deriveranno.

Partiamo dall’aerogel.

È la sostanza solida meno densa che si conosca e venne creata nel 1931 come risultato di una scommessa tra Steven Kistler e Charles Learned, due scienziati americani: avrebbe vinto chi dei due avesse scambiato per primo il liquido di una “gelatina” con del gas senza causarne il collasso. Qualcuno lo chiama fumo ghiacciato o anche fumo blu ed è una miscela costituita da una sostanza allo stato solido e da un gas. Una specie di gel dove il componente liquido è sostituito con gas. Al 99,8% è aria, cosa che lo rende un fantastico isolante. Per esempio, un scudo di aerogel potrebbe facilmente difendere da un lanciafiamme, così come potrebbe esser una calotta calda sulla Luna o potrebbe diventare un componente delle armature militari del futuro.

I nanotubi di carbonio sono catene di carbonio tenuti insieme dal legame chimico più forte che esista: il legame sp². Hanno notevoli proprietà fisiche, compreso il trasporto balistico degli elettroni, cosa che li rende ideali nell’elettronica. Hanno una resistenza alla trazione circa 300 volte superiore a quella degli acciai ad alto tenore di carbonio. Per questa ragione si immagina potrebbero essere utilizzati per costruire ascensori spaziali.

Conosciuti anche come diamanti aggregati nanorod, gli iperdiamanti consistono in nanotubi aggregati di diamanti. Sono un materiale superduro, il più duro e meno comprimibile che si conosca (motivo per cui sono conosciuti anche come fullerite ultradura). Quando la nostra tecnologia arriverà all’impiego degli iperdiamanti potremo dire di vivere davvero in un futuro da fantascienza. Ci sono anche i diamanti sintetici, conosciuti anche come HPHT o CVD, che sono diamanti ottenuti attraverso un processo tecnologico. Ciò rende possibile disporre di un materiale da costruzione immensamente forte, costituito da carbonio, con un’alta conducibilità termica e con un punto di fusione ed ebollizione tra i più alti di tutti i materiali esistenti. Qualcuno immagina quanto migliorerebbe la potenza degli aerei da combattimento se fossero rivestiti con uno strato protettivo a base di diamanti sintetici.

I metamateriali sono materiali creati artificialmente con proprietà elettromagnetiche specifiche, le cui caratteristiche non dipendono solo dalla loro composizione chimica ma anche dalla loro struttura. Sono stati utilizzati per la creazione di mantelli invisibili alle microonde e per altri dispositivi dalle proprietà ottiche insolite. Sono ritenuti ideali per la creazione di ologrammi su schermi bidimensionali.

Le schiume metalliche sono composte da un materiale forte e leggero che si ottiene aggiungendo idruro di titanio in polvere all’alluminio fuso e lasciando raffreddare il tutto. Avendo un ottimo rapporto resistenza-peso, sarebbero il materiale ideale per costruire colonie spaziali o città galleggianti.

Il carbonio, portato a circa 1.000 °C, cambia struttura: si trasforma in un materiale ultra-forte, ultra-leggero, elastico come la gomma ed elettricamente conduttivo. Questa nuova struttura del carbonio offre non solo straordinarie proprietà, del tutto inattese, ma apre la strada a un nuovo campo di ricerca che potrebbe portare alla scoperta di classi di materiali mai osservati finora.

Il carbonio è già noto per essere un elemento dai “mille volti”: quando gli atomi si aggregano a determinate temperature e pressioni danno origine alla grafite; a temperature e pressioni superiori diventano diamante, il materiale naturale più duro; in alcune condizioni, quando viene “esfoliato” diventa grafene, un materiale monodimensionale – uno strato dello spessore di un atomo – le cui applicazioni sono alla base di una rivoluzione industriale.

Se lo si sottopone a temperature di 1.000 °C e a 250.000 volte la pressione atmosferica si ottiene un materiale che potrebbe essere utilizzato per le astronavi del futuro, tanto è resistente e leggero.

Chiamati anche vetri metallici, i metalli amorfi sono dei metalli con una struttura atomica disordinata (caratteristica del vetro). Sono due volte più forti dell’acciaio e possono disperdere l’energia di un impatto in modo più efficace. Hanno proprietà elettroniche tali che consentono di migliorare del 40% l’efficienza delle reti elettriche. Potrebbero costituire la prossima generazione di armature militari.

Ma i due più interessanti, che richiamano molto Star Trek, sono l’alluminio trasparente e l’e-textile.

Quest’ultimo è un materiale che permette di sviluppare abbigliamento che può visualizzare qualsiasi tessuto, proprio come un display. Inoltre, la composizione elettronica del tessuto è in grado di interpretare comandi vocali e touch per attivare, per esempio, una chiamata telefonica o la connessione a qualche server remoto. Le possibilità dell’e-textile sono illimitate.

L’alluminio, invece, il metallo leggero per eccellenza, potrebbe, a breve, essere prodotto in una versione trasparente che potrebbe far riconsiderare, soprattutto, il settore del packaging.

Già nel 2009, a dire il vero, alcuni scienziati di Oxford avevano ottenuto l’alluminio trasparente bombardandolo con impulsi laser, fino a “staccare” un elettrone dall’atomo, il tutto, però, senza intaccare la struttura cristallina tipica del metallo. Il risultato del processo? Un materiale che risultava visibile solo con elevatissime radiazioni ultraviolette. In caso contrario, la trasparenza era assicurata.

Potrebbe essere usato come anti-proiettile e impiegato nel settore del packaging per la produzione, ad esempio, di bottiglie infrangibili.

Ad oggi i costi per la realizzazione sono troppo alti ma, con il tempo e con l’avanzamento delle tecnologie, si confida nel calo dei costi tanto da poter essere impiegato in oggetti di uso comune come smartphone ed orologi.

A dire il vero esiste già un’azienda che dallo scorso anno produce ALON-OPTICAL CERAMIC che a tutti gli effetti viene presentato come alluminio trasparente, tanto che l’azienda così scrive: “Alluminio trasparente, una struttura policristallina fatta di atomi di alluminio, ossigeno e azoto. Apparve come una trovata fantascientifica quasi 30 anni fa, ma adesso è una realtà. È duro quasi quanto lo zaffiro, che dopo il diamante e il carburo di silicio è il più duro cristallo conosciuto”.

L’ossinitruro di alluminio (ALON, appunto) per resistenza e resistenza ai graffi è quattro volte superiore al vetro alluminosilicato. Inoltre, questo materiale è in grado di sopportare una temperatura massima di 2100 gradi Celsius.

Attualmente il punto debole delle blindature sono proprio le parti trasparenti. Il più promettente in questo senso è una ceramica policristallina, in particolare, le ceramiche a base di ossinitruro di alluminio. I ricercatori sostengono anche che l’ALON può essere utilizzato in numerose applicazioni militari e commerciali, come gli oblò delle navicelle spaziali.

Quindi chi sa, tra qualche anno ci potremo davvero vestire con tutine multimediali e viaggiare su astronavi di carbonio e alluminio… per andare lì, dove nessuno è mai giunto prima!

Discovery

Come i miei lettori (pochi, ma buoni) sapranno, sono appassionato di fantascienza. La passione iniziò quando ancora piccolo, rubavo i romanzi di Urania, quelli con l’immagine in un cerchio bordato di rosso in copertina, a mio zio, e li leggevo avidamente nascosto in bagno.

Ammetto, pensavo che fossero romanzi per adulti, ma comunque la lettura mi fece appassionare al genere. D’altronde, chi di noi da piccolo non ha fantasticato sulla possibilità di essere, un giorno, astronauta?

Crebbi, e con me crebbe la voglia di leggere. Mi appassionai alle raccolte di Isaac Asimov, ai racconti di James Ballard o di Philip Dick, alle saghe di Robert Heinlein e Ray Bradbury, ai romanzi di Arthur Clarke e William Gibson.

Chiaro, sono del ’68, anno di “Odissea nello spazio”…

I film rappresentarono un ulteriore “step”. “Alien”, “Incontri ravvicinati del terzo tipo”, “Blade Runner”, “E.T.”, costellarono la mia adolescenza.

In quel periodo sul grande schermo faceva la sua comparsa una saga che si sarebbe rivelata quasi infinita, “Star Wars”, ma, ad essere sincero, non riuscivo ad appassionarmici. Non so quale sia il motivo, forse troppi elementi fantasy, sta di fatto che fino agli anni novanta erano quelle le mie passioni.

Poi, nel 1991, fui “folgorato sulla via di Damasco”. Durante lo zapping (avevo da poco vinto, ad una lotteria, un televisore 13 pollici MIVAR con telecomando), capitai su Italia 1, canale privato che guardavo solo per beccare sullo schermo Gabriella Golia, giovane e bella annunciatrice.

Iniziava le trasmissioni una nuova serie di fantascienza.

Star Trek entrò nella mia vita e da allora non ne è più uscita. Andai a recuperare la vecchia serie (detta TOS, The Original Series) mentre continuavo a vedere TNG (The Next Generation). Verso la fine di quest’ultima ne partì un’altra (Deep Space Nine, detta DS9) e poi Voyager (VOY).

Queste serie tv, oltre ad avere delle narrazioni fantascientifiche, con delle incredibili predizioni sulla tecnologia (si pensi che lo StarTAC, cellulare di punta della Motorola, era ispirato al comunicatore della serie originale, ma di esempi così ce ne sono tantissimi), avevano una filosofia affascinante: intanto, si basavano su una cultura pluralista e policentrica, che si contrappone alla realtà dei tempi moderni, in cui l’ego smisurato degli individui prevale su tutto.

Una cultura basata su queste premesse vede nella differenza un valore da tutelare, non un problema da risolvere. Il rispetto per le altre culture è quindi qualcosa di più che una posizione diplomatica, è il presupposto stesso dell’esistenza della Federazione, nella quale convivono centinaia di razze diverse, ognuna con la propria visione del mondo. La capacità di contenere in sé gli opposti è forse la più grande utopia di Star Trek.

Si racconta che quando l’attrice che impersonava Uhura, Nichelle Nichols, prese in considerazione l’idea di uscire dal cast, intervenne Martin Luther King in persona a fermarla. Whoopy Goldberg raccontò che da bambina, vedendo Uhura, pensò che nel futuro ci sarebbe stato un posto anche per lei nella società. In breve, il motto della serie era l’IDIC, acronimo per Infinite Diversità in Infinite Combinazioni.

Poi, tra i valori trasmessi dalla serie, la ricerca e il rispetto per il futuro come valori fondanti della società. Ancora una volta, utopici, per una società ancorata al passato come la nostra. Nella nostra società il futuro è appannaggio dell’utopia, della catastrofe o della fantascienza. Pochi scienziati, e ancor meno politici sono in grado di guardare oltre il loro naso. Colpisce quindi una società completamente proiettata verso il futuro come quella di Star Trek. Ad esempio, quando viene scoperto che la velocità curvatura può generare delle fratture nello spazio-tempo, subito viene deciso di ridurre al minimo i viaggi a curvatura (proprio in un episodio di TNG).

Infine, la “Prima Direttiva”. Non è altro che la fondamentale norma della Federazione dei Pianeti Uniti che vieta fermamente di interferire nello sviluppo naturale di una civiltà o negli affari interni di un governo di un altro pianeta finché essa non abbia sviluppato la tecnologia dei viaggi interstellari.

La prima direttiva vieta tutti i contatti che potrebbero influenzare le civiltà meno progredite inquinandone lo sviluppo culturale, in tutti quei mondi il cui progresso tecnologico non è ancora giunto alla scoperta della propulsione a curvatura, tecnologia che permette alle navi stellari di superare la velocità della luce e di conseguenza il viaggio interstellare, aprendo la via al contatto con altre forme di vita e civiltà.

Non è un “freghiamocene”, ma un “aiutiamoli a crescere da soli”. Che se applicato al mondo in cui viviamo, avrebbe prodotto cose diverse da quelle che, invece, ahimè, si sono verificate.

Alla fine della visione delle prime cinque serie (avevo, nel frattempo, recuperato anche la “TAS”, The Animated Series), venne trasmessa una sesta, Enterprise (ENT), che in realtà, a differenza delle altre, era un prequel. Narrava cioè quello che si era verificato nel periodo intercorso tra il cosiddetto “Primo Contatto” con i Vulcaniani e la TOS. Questa serie, vuoi perché nel frattempo il mondo televisivo cambiava, vuoi per mancanza di idee da parte degli autori, presi da crisi narrative senza precedenti, abortì alla fine della quarta stagione, invece di averne sette come le tre che la precedettero.

Quindi per noi fan, dal 2005 in poi, oltre ai film prodotti per il grande schermo, solo repliche e nulla più. Fino a che…

Nel novembre 2015 venne annunciata la partenza della produzione di una nuova serie, che avrebbe visto la luce quasi due anni dopo, il 24 settembre di quet’anno. Discovery.

Finalmente!, dirà qualcuno. Manco per niente!, dirà qualcun altro.

Eh, già. Perché nel frattempo, a causa dei tre film diretti o prodotti da J. J. Abrams (chi, quello di “Alias” e “Lost”? Sì!), il nutrito numero di fan di Star Trek si è diviso in fazioni. Io ne ho individuate quattro.

I puri e duri: a loro non importa che ci sia la parola Star Trek nel titolo, non sarà mai Star Trek, non c’è Kirk, non c’è Spock e non vale la pena seguire, né la serie tv, né i film.

Gli innamorati delusi: guardano i film e i telefilm, ma con un po’ di nostalgia, pensano sia Star Trek, ma non come nel passato.

I qualunquisti: a me basta che ci sia Star Trek nel titolo e ti amerò per sempre!

Gli appassionati (migliore categoria del lotto, ci sono anche io): guardano serie tv e film, comprendendo che ciò che viene girato nel 2017 non potrà avere le stesse caratteristiche realizzative (la tecnologia avanza, cari miei) di una serie girata cinquant’anni prima.

Certo, ci saranno anche imprecisioni: la nuova serie è un sequel del prequel (!!!) e si piazza tra le storie di ENT e quelle di TOS, qualche imprecisione narrativa, in un universo vasto come quello di Star Trek è inevitabile.

Ma quello che alle prime due categorie non va giù, è la struttura narrativa. Intanto, le puntate non sono del tutto autoconclusive: aspettarselo secondo me, sarebbe stato sciocco, siamo ormai nel secondo ventennio del nuovo secolo, le serie tv sono cambiate e DIS (sarà questo l’acronimo?) non se ne può discostare più di tanto, tant’è che le maggiori serie tv di questo periodo seguono la struttura narrativa orizzontale (basti citare le due principali rivali di Discovery, “The Walking Dead” e “Il Trono di Spade”, ma anche “NCIS” e “Empire” seguono quell’onda).

Inoltre i duri e puri non ammettono che al centro della narrazione non ci sia l’equipaggio, ma un solo personaggio, per di più neanche Capitano dell’astronave. Nel caso di Discovery il personaggio principale, di cui si seguono le vicende, è Michael Burnham, interpretata (sì, è una donna, con un nome maschile… autori birichini!) da Sonequa Martin-Green, attrice afroamericana già tra i protagonisti di una serie citata prima, che, pur essendo stata cresciuta dai Vulcaniani (quelli “tutta logica” e con le orecchie a punta) è una che raramente tiene a freno l’istinto.

È proprio questo il punto di forza della serie! La passione!

Ci lamentiamo che le nuove generazioni manchino di passione, siano stereotipati e quando vediamo un personaggio come Michael tutti giù a criticare!

La visione dell’autore “storico” di Star Trek, Gene Roddenberry, era che i personaggi umani dovevano essere rappresentati senza sentimenti negativi e non potevano entrare in conflitto l’uno con l’altro, così da trasmettere una visione del futuro ottimista e idilliaca.

Secondo me invece quello che gli autori vogliono far trasparire dal personaggio è qualcos’altro: all’interno di una visione del mondo complessa come quella dell’IDIC, ci sono personalità conflittuali, come il Capitano Lorca, timide, come il Cadetto Sylvia Tilly, o passionali, come Michael Burnham.

In una parola: umani.

 

Il segreto della vita

Abbiamo visto in “Il sistema solare parte ottava” la storia e l’evoluzione del nostro pianeta, ma un dubbio resta: mentre è molto chiaro, in base alle conoscenze attuali, come, dal punto di vista fisico e chimico, si sviluppa e si evolve la materia, diciamo, “inanimata”, restano ancora sconosciute le modalità di formazione della “vita” sulla Terra, o meglio, come dalla materia inanimata ci si sia arrivati.

L’idea che gli ingredienti necessari all’origine della vita siano arrivati sulla Terra nel corso di violenti bombardamenti meteoritici, circa quattro miliardi di anni fa, non è una novità.

In un episodio della sesta stagione di “Star Trek: The next generation” (il ventesimo, “The Chase”, “Il segreto della vita” in italiano) si ipotizza che una razza antichissima di alieni, prima di estinguersi abbia sparso il proprio patrimonio genetico per la galassia. Se da un lato questo episodio può essere usato per spiegare la particolare somiglianza della maggior parte delle razze aliene in Star Trek (quasi tutte umanoidi, pochissime ad esempio rettiloidi), dall’altro sembra che l’ispirazione sia la teoria della panspermia, che è appunto quella che accennavo.

Dal greco “πανσπερμία” da πᾶς/πᾶν (pas/pan) “tutto” e σπέρμα (sperma) “seme”) è una ipotesi che suggerisce che i semi della vita (in senso ovviamente figurato) siano sparsi per l’Universo, e che la vita sulla Terra sia iniziata con l’arrivo di detti semi e il loro sviluppo. È implicito quindi che ciò possa accadere anche su molti altri pianeti. Per estensione, semi si potrebbero considerare anche semplici molecole organiche.

Ma dove si sarebbero formate queste molecole organiche che viaggiavano a bordo dei meteoriti, se non vogliamo considerare la tesi fantascientifica?

Secondo l’ipotesi finora più accreditata, bisognerebbe cercare nel più remoto passato del sistema solare, quando la nostra stella era ancora a uno stadio di nebulosa: è in quel periodo che questi composti sarebbero rimasti “imprigionati” nei meteoriti appena nati, che li avrebbero poi trasportati nello spazio per milioni di anni.

Tuttavia i risultati di un nuovo esperimento italiano, svolto in collaborazione con degli scienziati russi, sembrerebbero aprire nuovi scenari sul ruolo svolto dai meteoriti nella nascita dei componenti base della cellula. Queste biomolecole avrebbero continuato, e continuerebbero, a formarsi sui meteoriti, infatti, anche in momenti successivi, perché i minerali di cui sono costituiti promuoverebbero le reazioni chimiche che le sintetizzano.

Come si legge su “Proceedings of the National Academy of Sciences”, i ricercatori hanno osservato che inviare fasci di protoni ad altissima energia, simulando il vento solare, su un mix di meteorite polverizzato e formammide, una molecola semplice a base di carbonio molto diffusa nell’universo, porta alla formazione spontanea di centinaia di composti organici complessi: amminoacidi, i mattoni delle proteine; lipidi, i costituenti della membrana cellulare; acidi carbossilici, su cui si basa il metabolismo; zuccheri; basi azotate e persino nucleosidi, molecole più articolate alla base sia del DNA che dell’RNA, che non erano mai state ottenute in altri studi volti a riprodurre in laboratorio la nascita della vita. Un risultato che, senza l’azione della polvere di meteorite quale catalizzatore delle reazioni chimiche di trasformazione della formammide, non si sarebbe potuto ottenere.

L’esperimento mostra che le molecole alla base della cellula si possono formare ovunque nell’universo. Allo stato attuale della ricerca, appare più probabile che i composti chimici che hanno dato origine alla vita sulla Terra si siano formati sui meteoriti stessi in presenza di formammide grazie all’energia del vento solare, piuttosto che sul nostro pianeta o durante l’impatto, per il calore sprigionato; anche se queste ultime due ipotesi non si possono comunque escludere.

Oltre a “rivalutare” il ruolo dei meteoriti nell’origine della vita da semplici mezzi di trasporto a fattore fondamentale per la formazione di molecole organiche, lo studio evidenzia per la prima volta la possibilità che la fonte di energia alla base di questo processo sia stata il vento solare, il flusso di particelle cariche che la nostra stella genera per reazioni termonucleari.

Anche a questo vento era stato già riconosciuto un ruolo importante nel preservare la vita, perché, spirando con violenza a migliaia di chilometri all’ora fino ai confini del sistema solare, ci protegge da pericolosissime radiazioni cosmiche esterne, con le quali si scontra. Ma finora nessuno aveva mai mostrato che, oltre a creare una sorta di gabbia protettiva per poter originare la vita, questo vento potesse contribuirvi anche attivamente.

Quello che ha stupito è stato constatare l’enorme efficienza di questa nuova sorgente di energia, potente ma fredda. La cosa bella è che si tratta di un meccanismo universale, può verificarsi in qualsiasi sistema planetario: l’energia delle stelle si trova in tutto l’universo, così come i meteoriti e la formammide, e la chimica del carbonio funziona allo stesso modo ovunque.

Sono più di cinquant’anni, ormai, che gli scienziati cercano di riprodurre in laboratorio le condizioni ambientali e chimiche della Terra primordiale sperando di osservare la formazione della vita a partire da sostanze inorganiche, con alcuni parziali successi. Il primo in assoluto era stato lo storico esperimento di Urey-Miller, in cui i due scienziati erano riusciti a indurre la formazione spontanea di amminoacidi applicando scariche elettriche su un gas di sostanze inorganiche (metano, ammoniaca, idrogeno e vapore acqueo) a modello di atmosfera della Terra primordiale.

Harold Clayton Urey (1893-1981), oltre che premio Nobel per la chimica nel 1934 per la scoperta del deuterio, fu insegnante di Isaac Asimov e direttore di un gruppo che lavorò al “Progetto Manhattan”. Stanley Lloyd Miller (1930-2007) fu un suo studente ed assieme portarono avanti le ricerche e il famoso esperimento.

Da allora lo studio dell’origine della vita è diventato una disciplina a sé, la cosiddetta chimica prebiotica, che studia processi il più possibile semplici ma in grado di generare molecole di grande complessità strutturale. Diversi modelli di Terra primordiale sono stati sperimentati, variando le sostanze inorganiche di partenza, le condizioni di temperatura e pressione, la fonte di energia, dal calore a vari tipi di radiazioni, e hanno portato alla formazione spontanea di diversi composti organici.

Per quanto si possa speculare all’infinito su come la vita abbia avuto inizio, limitandoci ai risultati sperimentali possiamo dire, a grandi linee, che negli ultimi anni si sono fronteggiate due grandi scuole di pensiero: quella secondo cui si sarebbe sviluppato prima il “materiale genetico” della vita, l’RNA (un polimero che svolge svariate funzioni all’interno della cellula, dalla duplicazione del DNA alla regolazione dell’espressione di geni), e quella secondo cui, invece, avrebbero avuto prima origine i processi metabolici, cioè la raccolta e l’utilizzo di energia sotto controllo, mentre la genetica sarebbe stata un passo successivo.

La presenza di queste due scuole è legata al fatto che gli esperimenti producevano, alternativamente, i composti precursori dell’uno o dell’altro aspetto. A mettere d’accordo tutti, però, sarebbe entrata in scena la formammide.

La formammide è un composto a base di carbonio legato ad atomi di idrogeno, azoto e ossigeno, gli atomi più importanti a livello biologico. È estremamente semplice e allo stesso tempo contiene tutti gli elementi chimici necessari per dar luogo a biomolecole, ed è molto diffusa nell’universo. Nella nostra galassia sono state individuate nubi di formammide del diametro di migliaia di anni luce, ma la sua presenza è stata osservata anche all’interno di altre galassie, di stelle molto giovani, nel mezzo interstellare, e su comete e satelliti, oltre che sul nostro stesso pianeta.

La chimica prebiotica della formammide è ormai un dato acquisito: gli scienziati sono riusciti a ottenere allo stesso tempo sia i composti precursori dei processi genetici, cioè le basi azotate, che quelli alla base dei processi metabolici, cioè gli acidi carbossilici. Questo suggerisce che entrambi i processi potrebbero essere emersi simultaneamente, ponendo fine al dibattito tra le due diverse scuole di pensiero. Tuttavia con questi modelli non si era mai riusciti a generare nucleosidi, cioè basi azotate legate a uno zucchero, che sono composti più evoluti.

La nuova ricerca ha avuto tre protagonisti, tutti e tre indispensabili, ognuno con un ruolo diverso: i fasci di protoni, a simulare il vento solare come sorgente di energia; la formammide liquida che, scomposta, fornisce il materiale per formare nuove molecole più complesse; e polvere di meteorite, che mescolata alla formammide agisce come catalizzatore, favorendo le reazioni chimiche che hanno portato alla sintesi delle biomolecole (gli elementi metallici dei minerali meteoritici rendono la formammide più reattiva, cioè più propensa a trasformazioni chimiche, sottraendole elettroni).

Tutti i meteoriti hanno dato risultati, ma quelli che si sono dimostrati più attivi sono le condriti, i meteoriti più antichi, che provengono dalla preistoria del nostro sistema solare, la cui composizione chimica è più simile a quella della nebulosa presolare. Rispetto ai minerali che possiamo trovare sulla Terra, i meteoriti presentano una composizione molto più ricca, per la loro storia: ognuno contiene diversi tipi di minerali, per cui si possono ottenere tutte le reazioni prodotte da quell’insieme di minerali in una volta sola. I meteoriti sono una sorta di laboratorio chimico per studiare lo spazio.

Non è ancora vita, ma gli ingredienti ci sono tutti. È tutto talmente chiaro e semplice: un atomo di carbonio solo attaccato ad azoto, idrogeno e ossigeno, se ulteriormente attivato, genera composti più complessi precursori sia della parte genetica che di quella metabolica, nella stessa provetta, nello stesso ambiente, nella stessa reazione; qualsiasi meteorite si usi, con diverse fonti di energia. Non a caso questi composti sono stati osservati nelle nubi stellari.

I passi successivi, che hanno portato alla cellula vera e propria a partire da questi composti organici di base ormai non sarebbero più un mistero. Esistono modelli sperimentali che riproducono l’origine spontanea dell’RNA, sono stati condotti vari studi che mostrano come queste molecole si aggreghino spontaneamente in una membrana cellulare, e come questa si replichi spontaneamente.

Finché parliamo di singole molecole, che siano basi nucleiche, zuccheri o amminoacidi, parliamo di chimica non vivente. Per parlare di vivente, serve un insieme di processi genetici, cioè un ciclo di trasmissione dell’informazione, e per questo servono dei polimeri, ovvero catene di molecole più complesse. In questo senso, i nucleosidi sono fondamentali perché possono unirsi in catene e formare RNA.

L’unica cosa che manca è capire come tutte queste molecole si siano messe a cooperare per far funzionare la vita come sistema complesso, qual è la scintilla che ha coordinato i lavori affinché nascesse il cosiddetto Last Unknown Common Ancestor (LUCA), che probabilmente fu un batterio Archaea estremofilo. Questo è oggetto di ricerca di una disciplina a sé, la biologia sintetica, o chimica dei sistemi.

In questo ambito, gli scienziati stanno cercando di capire se questa scintilla non sia stata favorita dall’azione di sostanze minerali. Alcuni sistemi che simulano le condizioni della Terra quando si è originata la vita hanno mostrato la crescita spontanea di membrane cristalline, che potrebbero aver favorito il momento di passaggio da un cocktail di molecole a una cellula vivente vera e propria.

La vita è semplice, è tutto “poco costoso”: deve essersi originata da processi frequenti, termodinamicamente favoriti, grazie a una fonte di energia disponibile ovunque e materiali di partenza molto diffusi.

Oppure, come aveva scoperto il vecchio insegnante di archeologia del Capitano Picard, il professor Galen, sono stati gli alieni.

Interstellar

Do not go gentle into that good night,/Old age should burn and rave at close of day;/Rage, rage against the dying of the light.

Though wise men at their end know dark is right,/Because their words had forked no lightning they/Do not go gentle into that good night.

Good men, the last wave by, crying how bright/Their frail deeds might have danced in a green bay,/Rage, rage against the dying of the light.

Wild men who caught and sang the sun in flight,/And learn, too late, they grieved it on its way,/Do not go gentle into that good night.

Grave men, near death, who see with blinding sight/Blind eyes could blaze like meteors and be gay,/Rage, rage against the dying of the light.

And you, my father, there on the sad height,/Curse, bless, me now with your fierce tears, I pray./Do not go gentle into that good night./Rage, rage against the dying of the light.

[Dylan Thomas, 1914 – 1953]

 

Prima di iniziare questo pezzo, terza parte della trilogia sulla velocità della luce, una precisazione. Non sono un fisico, né uno scienziato, ma solo un appassionato che raccoglie storie e notizie e le mette insieme. Il giorno che dovessi decidere di farne un mestiere, l’approccio sarebbe sicuramente diverso. Inoltre cito le mie fonti e nel disclaimer sul fondo del blog specifico quanto appena scritto. E così abbiamo sistemato pure Federico…

Per gli appassionati di fantascienza questi ultimi anni sono stati senza dubbio a due volti: da un lato, la delusione di vedere tutti i sogni dell’infanzia andare in fumo (sognavamo di avere macchine volanti, il teletrasporto e di fondare colonie in giro per lo spazio…), dall’altro tutta una serie di nuove produzioni cinematografiche e bibliografiche di sicuro interesse.

Cito ad esempio Interstellar e Star Trek, che sono sicuramente tra questi (Star Wars, pur essendo degno di menzione, è più del genere “fantasy” che di fantascienza). Anche se Interstellar è pieno di bla-bla pseudoscientifico, parla, come avevo accennato in “Più veloce della luce”, della possibilità di viaggiare all’interno di un buco nero per superare le immense distese dello spazio; Kip Thorne, professore di fisica al Caltech, che, oltre ad aver collaborato con fisici del calibro di Stephen Hawking e John Wheeler, ha partecipato alla creazione del progetto LIGO, che di recente ha registrato per la prima volta le onde gravitazionali, è stato uno dei consulenti scientifici del film.

Non vi racconterò la trama di Interstellar, anche perché se ne andrebbe metà di quest’articolo, ma inizierò a parlare di Star Trek. Vedo già gli occhi al cielo di qualcuno che conosco che starà pensando :”un’altra volta!”…

Star Trek, come avevo accennato in “Beam me up, Scotty!”, è un “media franchise” di genere fantascientifico che ha avuto inizio nel 1966 con una serie televisiva ideata da Gene Roddenberry, divenuta in seguito tra le più popolari nella storia della televisione. Il fatto di avere dei grossi problemi di budget in fase di progettazione della serie originale, quella con Kirk e Spock, giusto per capirci, fece spremere le meningi a Roddenberry, che per evitare costose scene di atterraggi e decolli, si inventò il teletrasporto e per giustificare il fatto di percorrere le immense distanze in tempi ragionevoli (d’altra parte una puntata durava 45 minuti!) dovette inventare un metodo di propulsione che permettesse all’Enterprise di viaggiare più velocemente della luce evitando tutti i problemi che già conosciamo; anche in questo caso trovò un escamotage ed inventò la velocità curvatura. Avrebbe potuto semplicemente far riapparire l’astronave nel punto desiderato dell’Universo (in ogni caso stiamo parlando di un telefilm) ma non solo inventò la velocità di curvatura, ma descrisse anche come doveva funzionare il motore dell’Enterprise. Ritengo che uno dei motivi di maggior successo della seria sia proprio questa ossessione nel descrivere i dettagli. Ovviamente non tutte le cose sono realizzate o realizzabili, ma almeno ci hanno provato. E quando un intervistatore domandò a Michael Okuda, consulente tecnico di Star Trek, come funzionassero i compensatori di Heisenberg, presenti nel manuale tecnico del teletrasporto, egli rispose semplicemente: “Benissimo, grazie!”.

Vediamo intanto come funziona il motore di curvatura e come si ottiene la velocità di curvatura e soprattutto cerchiamo di capire se può essere un modo per aggirare gli ostacoli che abbiamo incontrato sino ad ora nel superamento della velocità della luce. La propulsione a curvatura può essere definita in questo semplice modo: mentre nella propulsione sub-luminale è la nave che si sposta nello spazio, in curvatura si “muove” lo spazio attorno alla nave! Per la precisione, si comprime lo spazio nella direzione di avanzamento della nave, e lo si espande nella direzione opposta. Vediamo com’è possibile “comprimere” o “espandere” lo spazio.

Occorre chiarire, a questo punto, cos’è esattamente lo spazio. Si tratta, in verità, di un concetto molto complesso, sia dal punto di vista fisico-matematico che da quello filosofico. Cominciamo dalla nozione più elementare, che definisce lo spazio come distanza tra due corpi. Si tratta di una definizione banale solo in apparenza, perché contiene una verità fondamentale: lo spazio esiste solo in presenza di materia (o energia) e non è concepibile, infatti, uno spazio “vuoto”; se dall’universo potessimo rimuovere tutta la materia e l’energia esistente, non avremmo un universo vuoto, ma, al contrario, non esisterebbe più l’universo. Quindi, niente materia, niente spazio. Dal punto di vista strettamente intuitivo, appare ovvio che non si possa parlare di distanza tra A e B se A e B non esistono. Lo spazio è “creato” dalla materia, la quale non è altro che un particolare “tipo” di spazio.

Facciamo un altro passo, e parliamo di tempo. Definire il tempo non è meno arduo che definire lo spazio, e solitamente le definizioni peccano di tautologia, giacché definiscono il tempo come durata o intervallo tra due eventi, senza riuscire a chiarire cosa sia la “durata”. Una prima osservazione che si può fare, però, è che, al pari dello spazio, anche l’esistenza del tempo richiede materia-energia; perché ci sia un “prima” e un “dopo” è necessario che ci si riferisca a “qualcosa” (di diverso dal tempo stesso), ad un “evento”. Spazio e tempo sono accomunati, nel loro essere, dalla necessità dell’esistenza della materia: niente materia, niente tempo, niente spazio.

Spazio e tempo hanno però un legame ben più stretto, accertato fin dalla nascita della fisica relativistica; legame talmente stretto da far considerare il tempo una delle dimensioni dello spazio: si parla, difatti, di spazio-tempo. Per capire come possano essere legati dei concetti che, apparentemente, non hanno niente in comune, pensiamo ad un oggetto qualunque: appare evidente che tale oggetto occupa una posizione ben definita nello spazio, che può essere determinata con precisione indicando le distanze da una serie di punti di riferimento (ad esempio, un mobile in una stanza avrà una certa altezza rispetto al pavimento e una certa distanza dalle pareti). Tuttavia tale oggetto in realtà si sta spostando attraverso il tempo; esso esisteva prima dell’osservazione ed esisterà dopo l’osservazione, sinché non verrà distrutto. In altre parole, qualunque cosa, oltre che esistere (e muoversi) nello spazio, esiste (e deve muoversi) anche nel tempo. Se così non fosse, se l’oggetto fosse “immobile” nel tempo, esso esisterebbe solo per un istante infinitesimo, per poi sparire nel nulla.

Abbiamo già visto che la meccanica relativistica descrive lo spazio-tempo come entità quadridimensionale curva. Il fatto che lo spazio sia curvo e “plasmabile” ha delle importanti conseguenze per i nostri fini, perché in tale tipo di spazio le distanze non sono “assolute” e la via più breve tra due punti non è necessariamente una retta. Tornando agli esempi del “meraviglioso mondo degli insetti bidimensionali”, la distanza più breve che unisce due punti su una sfera è l’arco di cerchio massimo (già visto, scusate le ripetizioni, ma servono per arrivare al punto.)

Così come abbiamo visto che è la gravità a modellare lo spazio, il quale è più curvo nelle regioni più prossime a masse elevate. A questo punto è chiaro perché si parla di curvatura: essa è precisamente ciò che indica tale termine, una “deformazione” dello spazio indotta da un campo gravitazionale. Cosa succede, esattamente, curvando lo spazio? Qualunque massa, come visto, è in grado di curvare lo spazio: poiché non può esistere spazio senza massa, ne deriva che lo spazio è sempre e necessariamente curvo, benché la curvatura sia maggiore in prossimità delle masse e minore (in ragione del quadrato della distanza) man mano che ci si allontana da esse.

Qualunque massa o onda in movimento nello spazio deve seguirne necessariamente la geometria e quando una massa o un’onda entrano in una regione dello spazio caratterizzata da una particolare curvatura, devono necessariamente percorrerne la struttura. In tal modo è spiegata l’attrazione gravitazionale: poiché lo spazio s’incurva sempre di più in prossimità di una massa, un corpo entrato in tale regione deve dirigersi verso la massa deformante, percorrendo il “baratro” gravitazionale da essa creato (a meno che non sia in possesso di una velocità sufficiente per “uscirne”). Questo è, per esempio, il motivo per cui i pianeti ruotano attorno alle stelle.

Appare quindi evidente che, poiché lo spazio non ha una struttura fissa e immodificabile, è possibile “plasmarlo” in modo da adeguarlo alle nostre esigenze. Se vogliamo, ad esempio, percorrere una grande distanza in tempi brevi, possiamo comprimere lo spazio tra il punto di partenza e quello di arrivo. In questo modo non sono più necessarie velocità elevate, e comunque irraggiungibili: è come se prendessimo una scorciatoia nello spazio stesso, una sorta di galleria che ci consente di evitare la scalata della montagna. Detto così, ovviamente, è troppo semplice, e troppo bello per essere vero. Vediamo quali sono i terribili problemi da affrontare.

Cominciamo a dire che le curvature prodotte da masse non certamente trascurabili, come pianeti e stelle, sono del tutto insufficienti per i nostri scopi: ad esempio, la massa di una stella di tipo G (come il Sole della Terra) è in grado di deflettere un raggio di luce di circa un millesimo di grado. Ma a noi servono curvature enormemente superiori. Noi non vogliamo semplicemente “piegare” lo spazio, ma “accartocciarlo”. Ci servono perciò curvature ben maggiori di quelle prodotte dalle stelle. Dove prendere la massa (o l’energia) necessaria, se persino quella del Sole è insufficiente? Tornano in ballo così le singolarità ossia, come abbiamo visto, le regioni dello spazio-tempo caratterizzate da un intenso campo gravitazionale, imprimente una configurazione “a cuspide”. In altre parole, la curvatura in una singolarità è talmente accentuata che le lunghezze sono ridotte a un valore prossimo allo zero, mentre il tempo scorre a un ritmo pressoché infinito. Singolarità che si trovano, come sappiamo, al centro dei buchi neri.

Torniamo al punto di partenza: come curvare lo spazio? Con la gravità. Cos’è che genera la gravità, o, meglio, i gravitoni, le particelle portatrici della forza gravitazionale? La massa. Per avere il campo gravitazionale di una stella devo per forza avere la massa di una stella? No! E’ qui che risiede l’inizio della soluzione dei nostri problemi. In natura, il campo gravitazionale ha simmetria sferica: si estende uniformemente in tutte le direzioni, con intensità decrescente rispetto al quadrato della distanza dalla sorgente.

Per i nostri fini, questo è un enorme spreco! In natura è bene che le cose vadano così, perché l’universo come lo conosciamo non potrebbe certamente esistere (e noi con lui) se la gravità operasse in una sola direzione. A noi non interessa curvare un enorme volume di spazio, bensì agire solo nella zona che intendiamo attraversare. La radiazione elettromagnetica si comporta, per certi aspetti, come il campo gravitazionale: anch’essa ha simmetria sferica, anch’essa ha intensità decrescente con il quadrato della distanza.

Ora, dobbiamo capire che a questo punto gli autori di Star Trek sono un passo avanti a noi (d’altra parte, le avventure di Kirk e Spock si svolgono nel futuro) e nella società da loro immaginata esiste una teoria che unifica la gravità alle altre tre forze (nucleare forte, nucleare debole ed elettromagnetica); questa cosa permette loro di porre onde gravitazionali in concordanza di fase ed ottenere delle emissioni coerenti, in modo da creare treni d’onda a propagazione lineare: cosa significhi, lo sanno solo loro, ma è scritto nel manuale dell’Enterprise…

Quindi, quello che si dovrebbe fare, per ottenere la curvatura dello spazio, sarebbe fare in modo che l’emissione di gravitoni avvenisse unicamente lungo una direzione prefissata, e con frequenze predeterminate. Le onde gravitazionali così emesse sarebbero poste in concordanza di fase, in modo che l’energia della successiva si sommi a quella della precedente, e si concentri in un ristretto volume di spazio. Così sarebbe possibile realizzare un campo gravitazionale di elevata intensità e limitata estensione, senza dovere disporre della massa necessaria per ottenerne uno di analoga intensità in modo “naturale”.

A questo punto è evidente che, facendo in modo che il campo gravitazionale (d’intensità analoga a quello esistente nelle singolarità) si formi nella direzione di avanzamento della nostra nave, esso provvederà innanzitutto a comprimere la regione di spazio che ci accingiamo ad attraversare, e in secondo luogo si sposterà con la nave stessa, comprimendo regioni di spazio poste in successione, senza soluzione di continuità. Tale risultato, però, è solo il primo passo, necessario ma non sufficiente. Il nostro campo gravitazionale portatile e regolabile ha sempre i difetti dei suoi colleghi naturali: la sgradevole tendenza a fare a pezzi noi, la nostra nave e l’effetto relativistico associato. Calma. Ancora non abbiamo finito.

Per sfuggire al pozzo gravitazionale creato davanti alla nostra nave per comprimere lo spazio davanti a noi, è necessario creare un “anti-pozzo” dietro, in modo che la compressione sia bilanciata dall’espansione (che dovrà avere pari intensità e “segno” opposto) e la nave sia sospinta su tale “onda” di spazio-tempo modificato, passata la quale lo spazio tornerà alla sua struttura normale. Comprimendo lo spazio nella direzione anteriore riduciamo la distanza dal punto di arrivo, ossia ci “avviciniamo” (benché, lo si ripete, la posizione del punto di arrivo non muta, poiché operiamo solo sullo spazio intermedio); espandendo lo spazio nella direzione opposta, invece, ci “allontaniamo” dal punto di partenza, sfuggendo al baratro gravitazionale creato davanti a noi (senza necessità di alcuna accelerazione).

La regione compresa tra il fronte di compressione e quello di espansione è detta, dagli autori di Star Trek, bolla di curvatura, e mantiene le condizioni di un qualunque sistema di riferimento in moto alla stessa velocità. In altre parole, le masse presenti all’interno della “bolla” non subiscono né gli effetti relativistici (aumento di massa, dilatazione del tempo etc.), né effetti inerziali, poiché la velocità posseduta prima all’ingresso in curvatura non cambia! Torniamo al campo di curvatura. Poiché esso produce tensioni gravitazionali elevatissime, appare ovvio che debba essere generato a una distanza di sicurezza dalla nave. Le gondole, contenenti le bobine generatrici del campo, sono solitamente collocate ai lati della nave e poste in modo che i treni d’onda emessi non entrino in contatto con le strutture dell’astronave.

La propulsione a curvatura deve inoltre essere attivata in regioni di spazio quanto più vuote possibile, e ciò per una serie di ragioni. Va considerato soprattutto che il campo generato dai motori di curvatura è pur sempre un campo gravitazionale, e di intensità elevatissima; di conseguenza, ove lo spazio non fosse vuoto, le masse circostanti, specie se modeste, verrebbero attirate con enorme forza e scagliate contro la nave, con conseguenze facilmente immaginabili. Non solo: le tensioni gravitazionali farebbero a pezzi tali masse per “effetto marea” ed è chiaro quali sarebbero le conseguenze se si trattasse di navi spaziali.

Di tutte le invenzioni irrealizzabili dell’universo di Star Trek, personalmente ritengo che la velocità di curvatura sia una di quelle meno assurde, forse per il semplice motivo che sappiamo abbastanza sulla natura dello spazio-tempo per descrivere esplicitamente come si potrebbe utilizzare, almeno in linea di principio, lo spazio curvo per conseguire molti degli elementi essenziali del viaggio spaziale interstellare al modo di Star Trek. Sappiamo che, in assenza di tali possibilità, probabilmente non potremo mai viaggiare attraverso la Galassia. D’altro canto non abbiamo idea se le condizioni fisiche richieste per conseguire tali risultati siano realizzabili in pratica o anche solo permesse in via teorica. È chiaro, infine, che, se queste risposte fossero affermative, per realizzare tali possibilità una civiltà dovrebbe essere in grado di controllare energie molto superiori a qualsiasi quantità di energia che possiamo immaginare oggi.

Suppongo che si potrebbe adottare l’opinione ottimistica che queste meraviglie veramente notevoli non siano impossibili, almeno a priori. Esse dipendono semplicemente da una possibilità remota: la capacità di creare e rinnovare materia ed energia esotiche. Tuttavia sono ancora ottimista. Fondamentalmente siamo come quei minuscoli insetti che vivono su un foglio di gomma e viviamo in un universo la cui vera forma rimane nascosta alla nostra vista. Eppure, nel corso di meno di venti generazioni – da Newton a oggi – abbiamo utilizzato le semplici leggi della fisica per illuminare le profondità dello spazio e del tempo.

Forse non potremo mai salire a bordo di astronavi in partenza verso le stelle, ma, pur essendo prigionieri su questo minuscolo pianeta azzurro siamo riusciti a investigare il cielo notturno e a svelarne grandi meraviglie, e molte altre senza dubbio ne scopriremo. Se la fisica non può darci ciò di cui abbiamo bisogno per vagare nella Galassia, ci dà ciò di cui abbiamo bisogno per portare la Galassia fino a noi. Almeno con la fantasia.

 

 

 

 

 

 

Fonti: LA FISICA DI STAR TREK, Lawrence M. Krauss, Longanesi 1996

Beam me up, Scotty!

Chi non conosce Star Trek? (Coloro che hanno pensato ai film, sappiano che Star Trek è un “media franchise” di genere fantascientifico che ha avuto inizio nel 1966 con una serie televisiva ideata da Gene Roddenberry, divenuta in seguito tra le più popolari nella storia della televisione. Dal successo della prima serie – in larga parte postumo – sono derivate nel corso di quasi cinquant’anni altre cinque serie televisive (di cui una a cartoni animati) e dodici pellicole cinematografiche!)

L’immagine che gli spettatori hanno dell’universo di Star Trek è inscindibilmente legata a un avanzato sviluppo tecnologico. Il divario tecnologico è peraltro uno degli aspetti che più spesso emerge negli episodi di Star Trek. Le tecnologie di Star Trek (o “treknologie”, come sono state definite con un felice neologismo) non smettono di stupire lo spettatore, anche quando, con decenni di distanza dalla prima serie, sono divenute realtà. Star Trek ha anticipato di circa 40 anni molti oggetti tecnologici che solamente in seguito sono diventati di uso quotidiano come i minidischi, i telefoni satellitari (comunicatori della serie classica), i computer palmari e tablet PC (i PADD – Personal Access Display Device, D-Pad nella traduzione italiana), il traduttore universale.

La serie ha inoltre introdotto nell’immaginario collettivo numerose altre possibilità futuristiche che sono oggetto di ricerche scientifiche come il teletrasporto quantistico, i viaggi più veloci della luce e nel tempo.

Ed è stato il teletrasporto l’invenzione che più ha scosso l’immaginario collettivo. Ma come funziona e perchè nacque? E soprattutto, si potrebbe realizzare?

E’ una notizia dell’ultima ora la realizzazione di un replicatore a distanza (Teletrasporto alla Star Trek con le stampanti 3D) ma per adesso torniamo al 1966…

Gene Roddenberry si pose un problema: aveva un bel progetto di astronave: come un pinguino in acqua, l’Enterprise poteva scivolare elegantemente nelle profondità dello spazio, ma come un pinguino a terra avrebbe avuto problemi a muoversi al suolo se mai avesse tentato di atterrare. Fatto forse più importante, gli scarsi fondi a disposizione per un programma televisivo settimanale impedivano di far atterrare una grande astronave ogni settimana.

Come risolvere quindi questo problema? Semplice: assicurandosi che l’astronave non dovesse mai atterrare. Si doveva trovare qualche altro modo per spostare i membri dell’equipaggio dalla nave spaziale alla superficie di un pianeta. Prima ancora di avere il tempo di dire: «Mi faccia risalire» il teletrasporto era nato.

Forse nessun altro tipo di tecnologia, tranne il motore di curvatura, ricorre più spesso in ogni missione delle navi spaziali della Federazione. E anche chi non ha mai guardato un episodio di Star Trek riconosce la magica espressione appena citata. Essa ha permeato la cultura popolare americana. Ho letto di un giovane che, guidando in stato di ebbrezza, era passato col rosso incappando proprio in una macchina della polizia. All’udienza il giudice gli domandò se avesse qualcosa da dire. Il giovane, disperato, rispose: «Sì, vostro onore», e alzatosi in piedi estrasse il portafogli, lo aprì e mormorò dentro di esso: «Scotty, mi faccia risalire!»

Quest’episodio è probabilmente apocrifo, ma testimonia l’impatto che quest’ipotetica tecnologia ha avuto sulla nostra cultura: un impatto tanto più notevole in quanto probabilmente nessun altro elemento della tecnologia fantascientifica a bordo dell’Enterprise è così poco plausibile. Per creare un dispositivo come il teletrasporto si dovrebbero risolvere più problemi di tipo pratico e teorico di quanti si possano immaginare. Le difficoltà implicano l’intero spettro della fisica e della matematica, comprese la teoria dell’informazione, la meccanica quantistica, la relazione di massa ed energia di Einstein, la fisica delle particelle elementari ed altre cose ancora.

Il problema chiave che il teletrasporto ci costringe ad affrontare è il seguente: qual è il modo più rapido e più efficiente per spostare, dalla nave alla superficie di un pianeta, circa 1028 (1 seguito da 28 zeri) atomi di materia combinati in una configurazione complessa a comporre un singolo essere umano?

Consideriamo, per esempio, un quotidiano. Un’edicola vende una copia ad ogni lettore. Ma in un quotidiano digitale le stesse informazioni possono essere conservate sotto forma di bit. Un bit è un 1 o uno 0; i bit vengono combinati in gruppi di otto, chiamati byte, per rappresentare lettere o numeri. Ora, un numero arbitrariamente grande di utenti può avere accesso alla medesima locazione di memoria su un computer essenzialmente nello stesso tempo, cosicché in un’edicola digitale ogni singola persona sulla Terra che potrebbe altrimenti trovarsi nella necessità di comprare un giornale può leggerlo da una singola fonte. In questo caso, chiaramente, è meno importante, e senza dubbio meno efficiente, avere a disposizione gli atomi reali che compongono il quotidiano che non poter registrare i bit .

E nel caso di persone? Volendo teletrasportare delle persone da un posto all’altro, si devono spostare i loro atomi o solo la loro informazione? A prima vista si potrebbe pensare che sia molto più facile spostare il contenuto d’informazione; fra l’altro l’informazione può viaggiare alla velocità della luce. Nel caso delle persone ci sono però due problemi che non si pongono nel caso dei libri; innanzitutto si deve estrarre l’informazione, che non è una cosa tanto facile; e poi la si deve ricombinare con della materia. Dopo tutto le persone, diversamente dai libri, richiedono gli atomi.

Non sembra che gli autori di Star Trek abbiano mai capito chiaramente che cosa vogliono che faccia il teletrasporto. Deve trasmettere gli atomi e i bit, o solo i bit? In “Next Generation Technical Manual” si descrive il processo nei particolari: innanzitutto il teletrasporto si aggancia sul bersaglio. Poi analizza l’immagine da trasportare, la «smaterializza», la tiene per un po’ in un «buffer degli schemi» e poi trasmette a destinazione il «flusso di materia», contenuto in un «fascio di confinamento anulare». Pare quindi che il teletrasporto trasmetta la materia assieme all’informazione.

L’unica difficoltà in questo quadro è che è in disaccordo con ciò che a volte fa il teletrasporto. In almeno due casi ben noti, il tele trasporto aveva cominciato con una persona e ne fece salire due. Nel famoso episodio classico “Il duplicato”, un cattivo funzionamento del teletrasporto divide Kirk in due versioni diverse di se stesso, una buona e una cattiva. In uno sviluppo più interessante, e permanente, nell’episodio “Il Duplicato”, della serie The Next Generation, scopriamo che il tenente Riker era stato diviso in due copie durante il trasporto dal pianeta Nervala IV alla Potemkin. Una copia era poi tornata sana e salva alla Potemkin, mentre l’altra era stata riflessa di nuovo sul pianeta, dove Riker aveva vissuto da solo per otto anni.

Se il teletrasporto trasmette sia il flusso materiale sia il segnale d’informazione, questo fenomeno di divisione è impossibile. Il numero di atomi finale sarà uguale al numero iniziale. Non c’è alcuna possibilità di costruire repliche di persone in questo modo. Se invece si trasmette solo l’informazione, si può immaginare di ricombinarla con atomi che potrebbero essere immagazzinati sulla nave, e formare quante copie si vogliono di un individuo (ed è quello che fa il replicatore a cui accennavo).

Ma il problema è piuttosto serio. Se vuoi eliminare 1028 atomi, devi affrontare un compito alquanto difficile. Supponiamo, per esempio, che tu voglia semplicemente trasformare tutto questo materiale in energia pura. Quanta energia ne risulterebbe? Ce lo dice la formula di Einstein E = mc. Trasformando improvvisamente in energia 75 kg di materiale, libereremmo un’energia equivalente a più di mille bombe all’idrogeno di un megatone. È difficile immaginare come farlo in un modo amichevole per l’ambiente.

Questi ragionamenti suggeriscono che potrebbe essere preferibile immaginare un teletrasporto che portasse assieme al segnale un flusso di materia, come ci dicono che fanno i dispositivi per il teletrasporto di Star Trek. Il problema diventa quindi: come si possono spostare gli atomi? La difficoltà risulta essere di nuovo di tipo energetico, anche se in un modo un po’ più sottile. Che cosa si richiederebbe per «smaterializzare» qualcosa nel teletrasporto? Per rispondere a questa domanda, dobbiamo considerare in modo un po’ più accurato una domanda più semplice: che cos’è la materia? Tutta la materia normale è formata da atomi, che a loro volta sono composti da nuclei centrali molto densi circondati da una nube di elettroni. Come potrete ricordare dai corsi di chimica o di fisica delle scuole superiori, la maggior parte del volume di un atomo è composto da spazio vuoto. La regione occupata dagli elettroni esterni è circa diecimila volte più estesa della regione occupata dal nucleo.

Perché, se gli atomi sono formati per la maggior parte da spazio vuoto, la materia non passa attraverso altra materia? La risposta è che quel che rende solido un muro non è l’esistenza delle particelle bensì quella dei campi elettrici che si estendono fra una particella e l’altra. Quando io batto una manata sul tavolo, la mia mano è fermata primariamente dalla repulsione elettrica fra gli elettroni degli atomi della mia mano e gli elettroni degli atomi che formano il tavolo, e non dalla mancanza di spazio fra gli elettroni.

Questi campi elettrici non solo rendono corporea la materia nel senso di impedire agli oggetti di passare l’uno attraverso l’altro, ma ne assicurano anche la coesione. Per alterare questa situazione normale, si devono perciò superare le forze elettriche che agiscono fra gli atomi. Per superare queste forze si richiede lavoro, che consuma energia. È così che funzionano in effetti le reazioni chimiche. Le configurazioni di singoli insiemi di atomi e i loro legami vengono alterati in conseguenza di scambi di energia. Per esempio, se si inietta dell’energia in un miscuglio di nitrato d’ammonio e di olio combustibile, le molecole dei due materiali possono ridisporsi, e nel corso di questo processo può essere liberata l’«energia di legame» che teneva insieme i materiali originari. Questa liberazione, se è abbastanza rapida, causerà una grande esplosione.

L’energia di legame fra gli atomi è, però, piuttosto piccola rispetto all’energia di legame delle particelle – protoni e neutroni – che compongono i nuclei atomici, che sono incredibilmente densi. Le forze che tengono assieme queste particelle in un nucleo danno energie di legame milioni di volte maggiori delle energie di legame fra gli atomi. Perciò le reazioni nucleari liberano una quantità di energia significativamente maggiore di quella liberata dalle reazioni chimiche; ecco perché le armi nucleari sono così potenti.

Infine, l’energia di legame che tiene assieme i quark – ossia le particelle elementari che formano i protoni e i neutroni stessi – è ancora maggiore di quella che assicura la coesione di protoni e neutroni nei nuclei. In effetti si ritiene, sulla base di calcoli resi possibili dalla teoria che descrive le interazioni dei quark, che per separare completamente i quark che compongono ogni protone o neutrone si richiederebbe una quantità d’energia infinita.

Sulla base di questo argomento potremmo ritenere impossibile una completa dissoluzione della materia nei quark, i suoi componenti fondamentali, e in effetti è così, almeno a temperatura ambiente. La stessa teoria che descrive le interazioni dei quark all’interno dei protoni e dei neutroni ci dice però che, se riscaldassimo i nuclei a 1000 miliardi di gradi circa (una temperatura un milione di volte maggiore di quella vigente nella regione centrale del Sole), non solo i quark che compongono i nuclei perderebbero le loro energie di legame, ma la materia perderebbe improvvisamente quasi tutta la sua massa trasformandosi in radiazione, o, nel linguaggio del nostro teletrasporto, smaterializzandosi.

Perciò tutto ciò che si deve fare per sconfiggere l’energia di legame al suo livello più fondamentale (in realtà al livello a cui si riferisce il manuale tecnico di Star Trek) è di riscaldarla a 1000 miliardi di gradi. In unità di energia, ciò implica che si fornisca sotto forma di calore il 10 per cento circa della massa di quiete di protoni e neutroni. Per riscaldare a tale temperatura un campione della grandezza di un essere umano occorrerebbe perciò il 10 per cento circa dell’energia richiesta per annichilare tale materiale, ossia l’energia equivalente a cento bombe all’idrogeno di un megatone.

Ma forse non abbiamo bisogno di scomporre la materia fino al livello dei quark. Forse ai fini del teletrasporto potrebbe essere sufficiente una smaterializzazione al livello dei protoni e dei neutroni, o forse anche solo al livello atomico. Certamente le richieste di energia sarebbero in questo caso molto inferiori, anche se sempre grandissime. Purtroppo se, imitando la politica dello struzzo, nascondiamo questo problema sotto il tappeto, ci esponiamo a un problema ancora più grave. Una volta infatti che si sia conseguito il flusso materiale, composto ora da singoli protoni, neutroni ed elettroni, o forse interi atomi, lo si deve teletrasportare, presumibilmente a una frazione significativa della velocità della luce.

Ora, per far muovere particelle come i protoni e i neutroni a velocità prossime a quella della luce, si deve dar loro un’energia paragonabile a quella della loro massa di quiete. Questa risulta essere circa dieci volte maggiore della quantità di energia richiesta per riscaldare i protoni fino a scomporli in quark. Ma anche se occorre più energia per particella per accelerare i protoni a una velocità prossima a quella della luce, questo è tuttavia un compito più facile di quello di depositare e immagazzinare abbastanza energia all’interno dei protoni per un tempo abbastanza lungo per riscaldarli a una temperatura tale per determinarne la dissoluzione in quark.

Ancora una volta, però, si resta colpiti dall’appropriatezza della scelta terminologica degli autori di Star Trek. La fusione dei protoni e la loro separazione in quark è quella che si chiama in fisica una transizione di fase. Ed ecco che, se si scorre il Next Generation Technical Manual per cercare il nome dei dispositivi del teletrasporto che smaterializzano la materia, si trova che sono chiamati «bobine di transizione di fase». I futuri progettisti di teletrasporti avranno dunque una scelta. Essi dovranno o trovare una fonte di energia in grado di produrre temporaneamente un’energia circa 10.000 volte maggiore dell’energia totale consumata oggi sulla Terra, nel qual caso potrebbero formare un «flusso di materia» atomica capace di muoversi assieme all’informazione a una velocità prossima a quella della luce, oppure potrebbero ridurre di un fattore 10 le richieste totali di energia e scoprire un modo per riscaldare istantaneamente un essere umano a una temperatura un milione di volte circa superiore a quella vigente nella regione centrale del Sole.

Ora facciamo una semplice stima di quanta informazione sia codificata in un corpo umano. Cominciamo dalla stima classica di 1028 atomi. Per ogni atomo dobbiamo codificare innanzitutto la posizione, la quale richiede tre coordinate (x, y e z). Poi dovremmo registrare lo stato interno di ogni atomo, comprendente informazioni come: quali livelli di energia siano occupati dai suoi elettroni, se esso sia o no legato a un atomo vicino per comporre una molecola, se la molecola vibri o ruoti e via dicendo. Cercando di essere prudenti, supponiamo di poter codificare tutte le informazioni relative a un atomo in un kilobyte di dati. (Un byte corrisponde a 8 bit, equivalenti, nella scrittura, a una lettera, un numero o un segno d’interpunzione. Supponiamo che una cartella standard corrisponda a circa 1 kilobyte.) Ciò significa che avremmo bisogno di circa 1028 KB per memorizzare uno schema umano nel buffer degli schemi. Vi ricordo che 1028 è un uno seguito da 28 zeri (ossia 10 miliardi di miliardi di miliardi).

Confrontiamo questa informazione, per esempio, con quella contenuta in tutti i libri che siano mai stati scritti. Le maggiori biblioteche contengono vari milioni di volumi, cosicché vorrei essere generoso e dire che esistono un miliardo di libri diversi (un libro ogni sei persone attualmente viventi sul nostro pianeta). Diciamo che ogni libro contiene in media l’equivalente di un megabyte (MB) (anche questa è una stima generosa). Tutta l’informazione contenuta in tutti i libri che siano mai stati scritti richiederebbe quindi per essere memorizzata circa 1012 kilobyte, ossia circa un bilione, ovvero mille miliardi, di kilobyte. Questa cifra è più piccola di circa sedici ordini di grandezza – ossia di diecimila bilioni di volte – della capacità di memoria necessaria per registrare una singola configurazione umana! Quando i numeri sono così grandi, diventa difficile capire l’immensità del compito. Forse vale la pena di cercare di spiegarlo facendo un paragone. Il rapporto fra l’informazione contenuta in una configurazione umana e quella contenuta in tutti i libri che siano mai stati scritti è diecimila volte maggiore del rapporto fra l’informazione contenuta in tutti i libri che siano mai stati scritti e l’informazione contenuta in questa pagina.

La memorizzazione di una quantità d’informazione così grande è, per usare una minimizzazione cara ai fisici, un compito non banale. Gli hard disk più grandi attualmente disponibili in commercio possono contenere circa 8 terabyte (ossia 1012 byte). Se ogni disco ha uno spessore di circa 10 cm, disponendo uno sull’altro tutti i dischi attualmente necessari per memorizzare una configurazione umana, costruiremmo una pila alta un trecentesimo della distanza che ci separa dal centro della Galassia: circa 10.000 anni-luce, ossia un viaggio di cinque anni con l’Enterprise a curvatura 9!

Difficoltà non meno grandi presenta il richiamo di quest’informazione in tempo reale. I meccanismi più veloci per il trasferimento di informazione digitale sono in grado di trasferire attualmente poco meno di circa 10 GB al secondo. A questo ritmo, per scrivere su nastro i dati che descrivono uno schema umano occorrerebbe un tempo circa 20 volte maggiore dell’età attuale dell’universo (supponendo un’età approssimativa di 10 miliardi di anni)! Immaginate la tensione drammatica: Kirk e McCoy sono fuggiti dalla superficie della colonia penale di Rura Penthe. Per salire col teletrasporto sull’astronave non dispongono certamente di un periodo di tempo paragonabile all’età dell’universo; al trasferimento di quel milione di miliardi di miliardi di megabyte di informazione sono concessi solo pochi secondi, il tempo impiegato dal carceriere per puntare la sua arma prima di sparare.

Ma benché questa sfida sia difficilissima, io penso che in quest’area si potrebbe effettivamente pervenire a risultati concreti nel XXIII secolo. Il mio ottimismo deriva semplicemente dall’estrapolazione dell’attuale ritmo di crescita della tecnologia dei computer. Usando il precedente metro di misura del miglioramento di un fattore 100 per ogni decennio nella memorizzazione e nella rapidità, e dividendolo per 10 per motivi prudenziali – e tenendo conto che noi oggi siamo di circa 19 potenze del 10 lontani dall’obiettivo – possiamo attenderci di poter finalmente disporre della tecnologia informatica necessaria per affrontare con successo il compito del trasferimento di informazione per il teletrasporto fra 190 anni, appunto all’alba del XXIII secolo.

Lo dico, ovviamente, senza avere alcuna idea di come si riuscirà a risolvere il problema. È chiaro che, per poter registrare più di 1025 KB di informazione in un qualsiasi dispositivo in scala umana, si dovrà sfruttare ogni atomo del dispositivo come sito di memoria. La nozione emergente dei computer biologici, in cui la dinamica molecolare imita i processi logici digitali e in cui le 1025 particelle circa di un campione macroscopico operano tutte simultaneamente, mi sembra la più promettente sotto questo aspetto.

Dovrei inoltre ammonire a non prendere troppo sul serio le mie previsioni. Io non sono un informatico e il mio cauto ottimismo potrebbe perciò riflettere semplicemente la mia ignoranza. Traggo però qualche conforto dall’esempio del cervello umano, che è avanti di anni-luce per complessità e generalità rispetto a tutti i sistemi di calcolo esistenti. Se la selezione naturale è stata in grado di sviluppare un così bel dispositivo di memorizzazione e richiamo di informazione, credo che anche noi possiamo ancora fare molta strada.

Per completare (e complicare) il quadro, si deve tener conto anche della meccanica quantistica. Al livello microscopico a cui si deve operare per analizzare e ricreare la materia nel teletrasporto, vigono le leggi strane ed esotiche della meccanica quantistica, in virtù delle quali le particelle possono comportarsi come onde e le onde possono comportarsi come particelle. Io non mi propongo certamente di tenere qui un corso di meccanica quantistica. Si deve però tenere presente che a scale microscopiche non si possono separare osservato e osservatore. Eseguire una misurazione significa alterare un sistema, di solito per sempre. Questa semplice legge può essere parametrizzata in molti modi diversi, ma la sua formulazione più famosa è forse quella nella forma del principio di indeterminazione di Heisenberg. Questa importante legge – che sembra abolire la classica nozione del determinismo in fisica, anche se in realtà a un livello fondamentale non è così – divide il mondo fisico in due insiemi di quantità osservabili: lo yin e lo yang, se così vi pare. Essa ci dice che, qualunque tecnologia possa essere inventata in futuro, è impossibile misurare certe combinazioni di osservabili con una precisione alta a piacere. A scale microscopiche si potrebbe misurare con una precisione a piacere la posizione di una particella; Heisenberg ci dice però che, in questo caso, non possiamo conoscere esattamente la sua velocità (e quindi non possiamo sapere dove si troverà nell’istante successivo). Oppure potremmo accertare lo stato di energia di un atomo con una precisione a piacere, ma in questo caso non possiamo determinare esattamente quanto a lungo rimarrà in tale stato. E l’elenco potrebbe continuare.

Queste relazioni sono al centro della meccanica quantistica e non perderanno mai la loro validità. Finché lavoreremo a scale in cui si applicano le leggi della meccanica quantistica – le quali, a quanto indicano le nostre conoscenze, sono quanto meno più grandi della scala a cui diventano importanti effetti gravitazionali, ossia a circa 10-33 cm – siamo costretti a tenerne conto.

C’è un ragionamento fisico lievemente imperfetto, ma tuttavia molto soddisfacente, che ci consente una comprensione euristica del principio di indeterminazione. La meccanica quantistica attribuisce a tutte le particelle un comportamento ondulatorio, e le onde hanno una proprietà sorprendente: sono disturbate solo quando incontrano oggetti più grandi della loro lunghezza d’onda (la distanza fra due creste successive). Per rendersene conto nel modo più chiaro è sufficiente osservare le onde del mare. Un ciottolo che sporga appena dalla superficie dell’acqua non avrà alcun effetto sulle forma delle onde che avanzano verso la spiaggia, mentre un grosso scoglio avrà dietro di sé una regione di acqua calma.

Così, se vogliamo «illuminare» un atomo – cioè far rimbalzare della luce su di esso per vedere dove si trova – dobbiamo farlo con luce di una lunghezza d’onda abbastanza piccola da poter essere disturbata dall’atomo. Le leggi della meccanica quantistica ci dicono però che le onde luminose viaggiano in piccoli pacchetti, o quanti, che chiamiamo fotoni (come i «siluri fotonici» nelle navi spaziali). I singoli fotoni di ogni lunghezza d’onda hanno un’energia che è inversamente proporzionale alla loro lunghezza d’onda. Quanto maggiore è la risoluzione che desideriamo, tanto minore è la lunghezza d’onda della luce che dobbiamo usare. Ma quanto minore è la lunghezza d’onda, tanto maggiore è l’energia dei pacchetti. Se, per poter osservare un atomo, lo bombardiamo con un fotone ad alta energia, possiamo stabilire esattamente dove si trovava quando il fotone lo ha colpito, ma il processo d’osservazione stesso – ossia il fatto di colpire l’atomo col fotone – trasferisce all’atomo un’energia abbastanza grande da modificare in qualche misura la velocità e direzione del suo moto.

È perciò impossibile risolvere gli atomi e le loro configurazioni di energia con la precisione necessaria per ricreare esattamente uno schema umano. Un’incertezza residua in alcune delle osservabili è inevitabile. Che cosa questo fatto possa significare per la precisione del prodotto finale dopo il trasporto è un delicato problema biologico su cui posso solo fare delle congetture.

Questo problema non sfuggì agli autori di Star Trek, i quali si resero conto degli inevitabili vincoli della meccanica quantistica sul tele trasporto. In virtù di una cosa a cui i fisici non possono di solito appellarsi – ossia la licenza artistica –, essi introdussero i «compensatori di Heisenberg», che permettono la «risoluzione quantica» di oggetti. Quando un intervistatore domandò al consulente tecnico di Star Trek Michael Okuda come funzionassero i compensatori di Heisenberg, egli rispose semplicemente: «Benissimo, grazie!»

I compensatori di Heisenberg assolvono un’altra funzione utile nelle storie di Star Trek. Ci si può domandare, come ho fatto io stesso, perché il teletrasporto non sia anche un replicatore di forme di vita. Dopo tutto, a bordo delle navi spaziali c’è un replicatore che fa apparire magicamente, a un semplice comando a voce, bicchieri d’acqua o di vino (anche earl grey!) negli alloggi di ogni membro dell’equipaggio. La risposta sembra essere che la tecnologia dei replicatori può operare solo a una «risoluzione a livello molecolare» e non a una «risoluzione quantica». Ciò dovrebbe spiegare perché non sia possibile la replica di esseri viventi, e anche perché i membri dell’equipaggio si lagnino sempre che i cibi forniti dai replicatori non sono mai così buoni come i cibi veri, e perché Riker, fra gli altri, preferisca cucinarsi omelette e altre ghiottonerie nel modo tradizionale.

Consideriamo un’ultima difficoltà per il teletrasporto, come se quelle che abbiamo visto finora non fossero ancora sufficienti. Il trasporto dalla nave spaziale a un pianeta è difficile, ma ancora più difficile è l’operazione inversa. Per far risalire un membro dell’equipaggio sulla nave, i sensori a bordo dell’Enterprise devono individuare il membro dell’equipaggio sul pianeta sottostante. Inoltre, devono analizzare l’individuo prima della smaterializzazione e del trasporto del flusso di materia. L’Enterprise deve quindi avere un telescopio abbastanza potente da analizzare oggetti a una risoluzione atomica sulla superficie di un pianeta, e spesso anche sotto la superficie. Il normale raggio d’operazione dell’apparecchiatura è, a quanto ci viene detto, di circa 40.000 km, ossia di più di tre volte il diametro terrestre. Questo è il numero che useremo per la stima seguente.

Tutti hanno visto fotografie delle cupole dei massimi telescopi del mondo, come il telescopio Keck nelle Hawaii (il più grande del mondo), o il telescopio di Monte Palomar in California. Vi siete mai domandati perché si costruiscano telescopi sempre più grandi? (Non è solo una mania di grandezza, come amano sostenere alcune persone.) Come si richiedono acceleratori di dimensioni sempre maggiori per scandagliare la struttura della materia a scale sempre più piccole, così sono necessari telescopi di volta in volta maggiori se si vogliono risolvere oggetti celesti via via più deboli e più lontani. Il ragionamento è semplice: la luce, a causa della sua natura ondulatoria, tende a diffrangersi o a diffondersi ogni volta che passa attraverso un’apertura. La luce proveniente da una sorgente puntiforme lontana, passando per l’obiettivo del telescopio, produce un’immagine un po’ diffusa, cosicché, invece di vedere un punto di luce si vedrà un piccolo disco indistinto. Ora, se due sorgenti puntiformi nel campo visivo sono a una distanza fra loro inferiore al diametro apparente dei loro dischi, sarà impossibile risolverle come oggetti separati in quanto si avrà una sovrapposizione dei loro dischi nell’immagine osservata. Ora, quanto maggiore sarà il diametro dell’obiettivo, tanto minore sarà il disco apparente di una sorgente puntiforme. Perciò, per risolvere oggetti sempre più piccoli, i telescopi dovranno avere un’apertura sempre maggiore.

C’è un altro modo per risolvere piccoli oggetti con un telescopio. La lunghezza d’onda della luce, o di qualsiasi radiazione si voglia usare come sonda, dev’essere minore dell’oggetto che si cerca di analizzare, secondo il ragionamento esposto prima. Così, se si vuol risolvere la materia alla scala atomica, che si aggira attorno a qualche miliardesimo di centimetro, si deve usare una radiazione di una lunghezza d’onda di meno di un miliardesimo di centimetro circa. Se si sceglie una radiazione elettromagnetica, si richiederà l’uso o di raggi X o di raggi gamma. Qui si pone immediatamente un problema, poiché tali radiazioni sono dannose alla vita, e quindi l’atmosfera di ogni pianeta della Classe M le filtrerà, così come fa la nostra atmosfera. Il dispositivo per il teletrasporto dovrà perciò usare sonde non elettromagnetiche, come neutrini o gravitoni.

In ogni modo, dato che l’Enterprise usa una radiazione con una lunghezza d’onda di meno di un miliardesimo di millimetro e analizza un oggetto a 40.000 km di distanza con una risoluzione alla scala atomica, si può fare un calcolo. Secondo i calcoli, la nave spaziale avrebbe bisogno a questo scopo di un telescopio con un’apertura di oltre 50.000 km di diametro!

Non dovremmo perciò lasciarci troppo scoraggiare dalla chiara impossibilità di costruire un dispositivo per il teletrasporto in grado di assolvere le funzioni necessarie. O, per esprimerci in modo meno negativo, la costruzione di un tale dispositivo ci richiederebbe di riscaldare della materia sino a una temperatura un milione di volte superiore a quella vigente al centro del Sole, di spendere in una singola macchina più energia di quella usata attualmente da tutta l’umanità, di costruire telescopi di apertura maggiore del diametro della Terra, di migliorare gli attuali computer di un fattore di mille miliardi di miliardi e di evitare le leggi della meccanica quantistica. Non sorprende che il dottor McCoy fosse terrorizzato dal teletrasporto!

 

 

Fonti: LA FISICA DI STAR TREK – di Lawrence M. Krauss – Longanesi 1996