La particella di zio – parte seconda

Se in qualche cataclisma andassero perdute tutte le conoscenze scientifiche, e una sola frase potesse essere tramandata alle generazioni successive, quale enunciato conterrebbe la maggiore informazione nel minor numero di parole? Io credo si tratti dell’ipotesi atomica, cioè che tutte le cose sono fatte di atomi, piccole particelle in perpetuo movimento che si attraggono a breve distanza, ma si respingono se pressate l’una contro l’altra.

(Richard Feynman – Sei pezzi facili)

Il premio Nobel per la fisica Richard Feynman (1918 – 1988), all’inizio delle sue “Lectures”, lezioni di fisica tenute nel 1961 e 1962 agli studenti del primo e secondo anno del Caltech (California Institute of Technology), spiega com’è fatto un atomo. E lo fa in un modo così semplice che chiunque (anche tu, Andrea!) gli può stare dietro. Vi consiglio di leggerlo.

Abbiamo visto nel precedente brano (La particella di zio – parte prima) quali siano i mattoni principali che costituiscono gli atomi. Più atomi formano le molecole, mentre gli atomi sono a loro volta formati da costituenti subatomici quali i protoni, con carica positiva, i neutroni, con carica neutra (che formano il nucleo) e gli elettroni, con carica negativa (che “girano” intorno al nucleo).

Senza addentrarmi troppo nelle descrizioni chimiche e fisiche, le definizioni che ho appena scritto potevano andare bene all’inizio, nella fase embrionale della cosiddetta “teoria atomica”. Man mano che la scienza progrediva, le definizioni e le scoperte andavano a migliorare il modello.

Come abbiamo già detto, Rutherford fu il primo a descrivere l’atomo in maniera abbastanza vicina alla realtà: propose un modello di atomo in cui quasi tutta la massa dell’atomo fosse concentrata in una porzione molto piccola, il nucleo (carico positivamente) e gli elettroni gli ruotassero attorno così come i pianeti ruotano attorno al Sole (modello planetario). Era quasi giusto, sia perché nel suo modello atomico non comparivano i neutroni, successivamente scoperti da Chadwick nel 1932, sia perché il modello non teneva conto delle piccole discrepanze tra teoria ed osservazioni successive.

Grazie al fatto che si faceva strada la teoria quantistica, nel 1913 Niels Bohr propose una modifica concettuale al modello di Rutherford. Pur accettandone l’idea di modello planetario, postulò che gli elettroni avessero a disposizione orbite fisse, dette anche “orbite quantizzate”, queste orbite possedevano un’energia quantizzata nelle quali gli elettroni non emettevano né assorbivano energia: in particolare, un elettrone emetteva o assorbiva energia sotto forma di onde elettromagnetiche solo se effettuava una transizione da un’orbita all’altra, e quindi passava ad uno stato a energia minore o maggiore.

Questo era il modo migliore per spiegare come mai gli elettroni, se giravano intorno al nucleo, non ne venissero fatalmente attratti.

Ciò nonostante, il modello di Bohr si basava ancora su postulati e soprattutto funzionava bene solo per l’idrogeno: tutto ciò, alla luce anche del principio di indeterminazione introdotto da Werner Karl Heisenberg nel 1927, convinse la comunità scientifica che fosse impossibile descrivere esattamente il moto degli elettroni attorno al nucleo, motivo per cui ai modelli deterministici fino ad allora proposti si preferì ricercare un modello probabilistico, che descrivesse con buona approssimazione qualsiasi atomo.

Quindi si passò da un modello planetario, quello di Rutherford, ad uno ad orbite fisse, quello di Bohr, ad uno impossibile da descrivere visivamente.

Fu abbandonato il concetto di orbita e fu introdotto il concetto di orbitale. Secondo la meccanica quantistica non ha più senso infatti parlare di traiettoria di una particella: da ciò discende che non si può neanche definire con certezza dove un elettrone si trova in un dato momento. Ciò che è possibile conoscere è la probabilità di trovare l’elettrone in un certo punto dello spazio in un dato istante di tempo. Un orbitale quindi non è una traiettoria su cui un elettrone (secondo le idee della fisica classica) può muoversi, bensì una porzione di spazio intorno al nucleo definita da una superficie di equiprobabilità, ossia entro la quale c’è il 95% della probabilità che un elettrone vi si trovi.

A quel punto nacque la fisica delle particelle. E si scoprì che le particelle erano ben più di tre. Ma facciamo un passo indietro.

Dmitrij Ivanovič Mendeleev (1834 – 1907) fu un chimico russo. Nel 1868 iniziò a scrivere il suo libro, “Princìpi di chimica”. Il suo progetto prevedeva la sistematizzazione di tutte le informazioni dei 63 elementi chimici allora noti. Lo scienziato russo preparò 63 carte, una per ciascun elemento, sulle quali dettagliò le caratteristiche di ognuno. Ordinando le carte, secondo il peso atomico crescente, si accorse che le proprietà chimiche degli elementi si ripetevano periodicamente. Sistemò i 63 elementi conosciuti nella sua tavola e lasciò tre spazi vuoti per gli elementi ancora sconosciuti.

Che cos’è il peso atomico? Senza entrare in tecnicismi, il peso atomico è legato al numero totale di neutroni e protoni presenti nel nucleo. Il peso reale è leggermente inferiore alla somma dei pesi dei differenti componenti perché protoni e neutroni hanno massa diversa (anche se solo del 2‰) e perché parte della massa delle particelle costituenti il nucleo viene ceduta sotto forma di energia di legame nella fase di nucleosintesi, riducendo il peso totale con un meccanismo noto come difetto di massa. Il peso degli elettroni modifica solo leggermente il totale, perché la massa di un elettrone è pari a 1⁄1836 quella di un protone, se considerati entrambi a riposo.

Senza che Mendeleev lo sapesse, pochi anni prima avevano già tentato l’impresa Lothar Meyer (1864) e John Newlands (1865), le cui tavole non consentivano però la previsione di nuovi elementi ancora non scoperti. In più, nei casi in cui le proprietà di un elemento comportavano il suo inserimento in una casella diversa da quella corrispondente al suo peso atomico, Mendeleev coraggiosamente cambiava l’ordine, sostenendo che le proprietà sono più importanti del peso atomico.

Per esempio, il tellurio, con un peso atomico di 127,61, dovrebbe venire dopo lo iodio, che ha peso atomico 126,91, seguendo il criterio dei pesi atomici; mettendo invece il tellurio prima dello iodio, esso risulta sotto al selenio, a cui somiglia molto, mentre lo iodio in tal modo risulta sotto al bromo, suo parente stretto.

Infine, ed è la cosa più importante, là dove Mendeleev non trovava altro modo per far funzionare le cose, non esitò a lasciare dei posti vuoti nella tavola, annunciando, con quella che apparve una sicumera inaudita, che si sarebbero in futuro scoperti gli elementi che avrebbero riempito le caselle vuote. E si spinse ancora oltre. Per tre di tali buchi descrisse gli elementi che dovevano riempirli, utilizzando come guida le proprietà degli elementi soprastanti e sottostanti nella tabella. E qui Mendeleev ebbe un colpo di fortuna. Tutti e tre gli elementi da lui previsti furono scoperti mentre era ancora in vita, consentendogli di assistere al trionfo del suo sistema.

Dopo la scoperta dei raggi X, venne alla luce che proprio tramite quelli era possibile distinguere gli elementi: nel 1914, il giovane fisico inglese Henry Gwyn-Jeffreys Moseley determinò le lunghezze d’onda dei raggi X caratteristici prodotti da vari metalli, arrivando all’importante scoperta che la lunghezza d’onda diminuiva con regolarità man mano che si procedeva nella tavola periodica. I chimici numerarono così gli elementi da 1 (idrogeno) a 92 (uranio). Risultò poi che i “numeri atomici” così ottenuti erano importanti dal punto di vista della struttura interna degli atomi, ben più di quanto non lo fossero i pesi atomici. Per esempio, i dati forniti dai raggi X mostrarono che Mendeleev aveva avuto ragione nel porre il tellurio (numero atomico 52) prima dello iodio (numero atomico 53), nonostante il maggior peso atomico del primo.

Senza tirarla troppo per le lunghe, ci sono attualmente 118 elementi noti, alcuni stabili, altri instabili, alcuni esistenti in natura, altri creati in laboratorio. Ma ci sono due cose da tenere a mente. Intanto, che tutta la materia è formata da alcuni di quei 118 elementi; poi, che il funzionamento degli stessi ci fornisce uno strumento essenziale per effettuare tante altre scoperte, sia teoriche sia pratiche. E gli scienziati non si sono fatti pregare.

Infatti negli anni cinquanta e sessanta si svilupparono macchine in grado di produrre e rivelare un’incredibile varietà di particelle. Si faceva riferimento a queste come allo “zoo delle particelle”. Questo termine venne abbandonato dopo la formulazione del modello standard, durante gli anni settanta, nel quale questo grande numero di particelle venne spiegato in termini della combinazione di un numero (relativamente) piccolo di particelle fondamentali. Infatti fu necessario mettere un po’ d’ordine al caos che si stava creando.

Il principio fisico per lo studio di nuove particelle è quello semplice degli urti ad elevata energia: facendo collidere tra di loro particelle ad alta energia cinetica, ovvero a velocità prossime alla velocità della luce, il prodotto può essere, per l’equivalenza tra massa ed energia, una nuova particella a massa superiore che eventualmente decade in altre particelle figlie. Dall’analisi di tali decadimenti è possibile risalire alle caratteristiche della particella madre.

L’Italia ha un ruolo di primo piano nella fisica delle particelle, partecipando con posizioni di responsabilità importanti alla realizzazione ed alle ricerche che si effettuano nei più importanti progetti. Le ricerche in questo settore sono finanziate in Italia in gran parte dall’INFN (Istituto Nazionale di Fisica Nucleare) che collabora con decine di dipartimenti di fisica delle diverse università italiane.

Nel 1984 l’italiano Carlo Rubbia ha ricevuto Premio Nobel per la fisica per la conferma sperimentale dei Bosoni W± e Z al CERN di Ginevra.

L’Italia è uno stato membro fondatore del CERN, e per tre volte ha avuto la direzione generale del laboratorio (Carlo Rubbia, dal 1989 al 1993, Luciano Maiani dal 1999 al 2003, Fabiola Giannotti dal 2015).

Prima di andare avanti, rispondo a quello che ha pensato: “Sì, ok, ma a che serve?” (tanto lo so che c’è).

Le spese pubbliche per finanziare i grandi progetti di ricerca hanno spesso avuto ricadute tecnologiche positive di rilievo anche in settori diversi da quelli che le attività di ricerca hanno come finalità principale. Tra le applicazioni che sono nate dall’ambiente di ricerca della fisica delle particelle vi sono:

  • il World Wide Web, nato al CERN per migliorare gli strumenti di comunicazione scientifica, il protocollo HTTP ed il linguaggio HTML;
  • rivelatori di particelle utilizzati per diagnostica medica;
  • l’adroterapia, che dovrebbe curare il cancro attraverso l’uso di acceleratori. Grazie alla possibilità di controllare con precisione l’energia e la localizzazione delle particelle accelerate, è possibile depositare dosi di radiazione in maniera controllata per distruggere le cellule cancerose senza danneggiare i tessuti circostanti;
  • la tomografia ad emissione di positroni, o PET, uno strumento di diagnostica medica che utilizza l’antimateria.

Sistemati gli agnostici con i diagnostici, torniamo a noi.

Avevamo spiegato che esistono tre particelle, protone, neutrone ed elettrone. Grazie agli acceleratori di particelle, sono state scoperte molte altre particelle, anche se a volte è stato necessario aspettare anni per vedere il risultato delle teorie.

Ad un certo punto si comprese che all’interno dell’atomo vi erano altre particelle. Becquerel, quando aveva scoperto la radioattività, si era reso conto che, mentre una parte della radiazione emessa dalle sostanze radioattive era costituita da elettroni, un’altra parte non lo era. I Curie in Francia ed Ernest Rutherford in Inghilterra avevano identificato una radiazione che era meno penetrante di un fascio di elettroni; Rutherford la denominò “raggi α (alfa)”, e chiamò “raggi β (beta)” l’emissione formata da elettroni; pertanto gli elettroni, quando entrano a far parte di una radiazione, sono denominati “particelle beta”. I raggi alfa risultarono anch’essi costituiti di particelle che furono chiamate “particelle alfa”. Nello stesso periodo il chimico francese Paul Ulrich Villard scoprì una terza forma di emissione radioattiva, cui fu dato il nome di “raggi γ (gamma)”. Alfa, beta e gamma sono le prime tre lettere dell’alfabeto greco.

Per primo Rutherford, seguito da tutti gli altri scienziati dell’epoca, con strumenti via via sempre più sofisticati, iniziò a bombardare gli elementi con le particelle alfa.

Quando bombardò i nuclei di azoto con le particelle alfa in una delle originarie camere a nebbia di Wilson, la particella alfa lasciava una traccia che terminava improvvisamente con una biforcazione, evidentemente a causa di una collisione con un nucleo di azoto. Uno dei due rami era relativamente sottile, e rappresentava un protone sbalzato via. L’altro ramo, una traccia corta e grossa, rappresentava ciò che restava del nucleo di azoto che aveva subìto la collisione. Ma della particella alfa stessa non vi era alcuna traccia. Sembrava che dovesse esser stata assorbita dal nucleo di azoto, supposizione che fu in seguito confermata dal fisico inglese Patrick Maynard Stuart Blackett; si dice che questi abbia effettuato più di ventimila fotografie per arrivare a mettere insieme otto di tali collisioni (certamente un esempio di pazienza, fede e tenacia sovrumane). Per questo e altri lavori nel campo della fisica nucleare, Blackett ricevette il premio Nobel per la fisica nel 1948.

A quel punto era possibile ricostruire cosa fosse successo al nucleo di azoto: catturando una particella alfa, il suo numero di massa saliva da 14 a 18 e la sua carica positiva da 7 a 9; dato però che la combinazione espelleva immediatamente un protone, il numero di massa ridiscendeva a 17 e la carica positiva a 8. Ora, l’elemento di carica positiva 8 è l’ossigeno, mentre il numero di massa 17 individua l’isotopo dell’ossigeno 17. In altri termini, Rutherford, nel 1919, aveva trasmutato l’azoto in ossigeno. Si trattava della prima trasmutazione artificiale della storia umana. Il sogno degli alchimisti era stato realizzato, anche se in una maniera che essi non avrebbero potuto né prevedere né attuare con le loro tecniche primitive.

Come proiettili, le particelle alfa ottenute dalle sorgenti radioattive presentavano dei limiti: non avevano certo abbastanza energia per riuscire a penetrare nei nuclei degli elementi più pesanti, le cui elevate cariche positive esercitano una forte repulsione sulle particelle cariche positivamente. Ma la fortezza del nucleo era stata violata, e attacchi più energici sarebbero seguiti.

La prossima volta vedremo la famiglia delle particelle fino ad arrivare all’ultimogenita, la particella Xi.

La particella di zio – parte prima

Gregory (detective di Scotland Yard): “C’è qualcos’altro su cui vuole attirare la mia attenzione?”

 Holmes: “Sul curioso incidente del cane, quella notte”.

 Gregory: “Ma il cane non ha fatto nulla quella notte”.

 Holmes: “Questo appunto è il curioso incidente”

“Barbaglio d’argento”, Sir Arthur Conan Doyle, 1892

 

Come spesso accade quando si scrive, ben difficile risulta descrivere ciò che non è visibile agli occhi. Ma è anche vero che non tutto ciò che non è visibile agli occhi dell’uomo deve essere preso come qualcosa di inesistente.

Pensate se doveste descrivere il wifi a uno che non sa cosa sia neanche un computer. O un atomo a un lettore di questo blog (scherzo, l’ho già fatto e sono sicuro che tutti i lettori lo abbiano ben compreso nonostante le mie pessime spiegazioni).

Immagino quanto sia stato difficile per certi scienziati comprendere (o far comprendere, dipende da quale lato del tavolo fossero) la struttura atomica. Soprattutto dopo che Marx Karl Ernst Ludwig Planck (1858 – 1947), Niels Henrik David Bohr (1885 – 1962), Albert Einstein (1879 – 1955), Peter Debye (1884 – 1966) e Arnold Johannes Wilhelm Sommerfeld (1868 – 1951) ebbero le idee e le intuizioni che portarono loro e i loro discepoli ad elaborare la teoria della meccanica quantistica.

I fondatori della teoria quantistica sostanzialmente costrinsero gli scienziati a dividere il mondo in due parti: al di sopra, vi era la matematica classica con la quale era possibile descrivere i processi fisici empiricamente osservabili; sotto, vi era la matematica quantistica che descriveva un regno completamente al di fuori del determinismo fisico.

In generale, si comprese che lo stato evoluto del sistema “di sotto“ non poteva essere abbinato a nessuna descrizione classica delle proprietà visibili all’osservatore e gli scienziati avrebbero dovuto scegliere particolari proprietà del sistema quantistico, sviluppando un modello per vedere i suoi effetti sui processi fisici “di sopra”.

Ora, se è difficile per uno che lo fa di mestiere, pensate quanto lo sia per uno come me, che ha nella fisica delle particelle un interesse poco più che hobbistico! Ma chi mi conosce lo sa, quando mi intestardisco su una cosa, in genere mi piace portarla a termine.

È di pochi giorni fa la notizia della scoperta al Cern della particella Xi: inseguita da decenni, potrà aiutare a studiare la ‘colla’ che tiene unita la materia, ossia per capire una delle quattro forze fondamentali della natura: la forza forte. La scoperta, annunciata nella conferenza della Società Europea di Fisica in corso a Venezia e in via di pubblicazione sulla rivista Physical Review Letters, è avvenuta grazie all’acceleratore più grande del mondo, il Large Hadron Collider (Lhc).

Ma facciamo un passo indietro.

I greci sapevano che la materia non era divisibile all’infinito. Ipotizzarono che, dividendo un pezzo di materia in pezzi sempre più piccoli, alla fine ci fossero dei frammenti che non avrebbero potuto essere divisi e chiamarono questi frammenti atomi (da ἄτομος – àtomos -, indivisibile, unione di ἄ – a – [alfa privativo] + τέμνειν – témnein – [tagliare]).

Fu però, per vari motivi, necessario arrivare al 1800 perché la teoria atomica fosse quanto meno presa in considerazione (sporadicamente, nella storia, altri l’avevano esaltata, ma erano stati, al loro tempo, bellamente ignorati).

Cerchiamo di capire che cosa sono gli atomi e quali sono le particelle che li compongono.

Tutto ebbe inizio con gli studi sull’elettricità. Michael Faraday, fisico e chimico britannico, tentò tutti gli esperimenti con l’elettricità che gli vennero in mente, tra cui uno che consisteva nel far passare una scarica elettrica nel vuoto. Non riuscì, però, a ottenere un vuoto abbastanza spinto per i suoi scopi. Nel 1854, un maestro vetraio tedesco, Heinrich Geissler, costruì un tubo di vetro in cui erano saldati degli elettrodi metallici e in cui, con una pompa da lui stesso inventata, era possibile raggiungere un vuoto molto spinto. Quando gli sperimentatori riuscirono a ottenere scariche elettriche nel “tubo di Geissler”, notarono che si manifestava una luminescenza verde sulla parete del tubo opposta all’elettrodo negativo. Nel 1876 il fisico tedesco Eugen Goldstein giunse alla conclusione che tale luminescenza verde dovesse dipendere dall’urto sul vetro di una qualche radiazione originata nell’elettrodo negativo, che Faraday aveva denominato “catodo”.

Goldstein pertanto chiamò queste radiazioni “raggi catodici”. Si trattava di una forma di radiazione elettromagnetica? Così riteneva Goldstein, ma il fisico inglese William Crookes e alcuni altri sostennero che si trattava piuttosto di un fascio di qualche tipo di particelle. Crookes progettò alcune versioni migliorate del tubo di Geissler (chiamate poi “tubi di Crookes”), con cui poté dimostrare che i raggi venivano deflessi dall’azione di un magnete. Ciò faceva pensare che fossero costituiti di particelle elettricamente cariche.

Nel 1897, il fisico Joseph John Thomson chiarì la questione al di là di ogni dubbio, dimostrando che i raggi catodici potevano essere deviati anche dalle cariche elettriche. Cosa erano, dunque, queste “particelle” catodiche? Le uniche particelle aventi carica negativa note a quell’epoca erano gli ioni negativi. Gli esperimenti mostrarono però che le particelle che costituivano i raggi catodici non potevano essere ioni, perché subivano una così forte deviazione da parte del campo magnetico da far pensare che avessero una carica elettrica inconcepibilmente alta, oppure che fossero particelle estremamente leggere, con una massa inferiore a un millesimo di quella dell’atomo di idrogeno.

Risultò che quest’ultima interpretazione si adattava meglio ai fatti. I fisici avevano già avanzato l’ipotesi che la corrente elettrica fosse trasportata da particelle, e così queste particelle catodiche furono accettate come le costituenti ultime dell’elettricità. Vennero chiamate “elettroni”, nome suggerito nel 1891 dal fisico irlandese George Johnstone Stoney. In seguito si stabilì che l’elettrone aveva una massa pari a 1 su 1837 di quella dell’atomo di idrogeno (Thomson ricevette il premio Nobel per la fisica nel 1906 per la scoperta dell’elettrone).

La scoperta dell’elettrone fece pensare subito che esso potesse essere una particella costitutiva dell’atomo: gli atomi non erano quelle unità ultime e indivisibili della materia che i greci avevano ipotizzato.

Nel 1886 sempre Goldstein, usando un tubo a raggi catodici con un catodo perforato, aveva scoperto una nuova radiazione che passava attraverso i fori del catodo in direzione opposta ai raggi catodici, e l’aveva chiamata “Kanalstrahlen” (raggi canale). Fu proprio questa radiazione, nel 1902, a dare l’opportunità di osservare per la prima volta l’effetto Doppler-Fizeau in una sorgente luminosa terrestre. Il fisico tedesco Johannes Stark collocò uno spettroscopio in posizione tale che i raggi si dirigessero verso di esso, e rese così osservabile lo spostamento verso il violetto. Per questa ricerca gli fu assegnato il premio Nobel per la fisica nel 1919.

Dato che i raggi canale si muovono in direzione opposta a quella dei raggi catodici, che hanno carica negativa, come abbiamo visto, Thomson propose di chiamarli “raggi positivi”. Risultò che le particelle che costituivano i raggi positivi attraversavano facilmente la materia, e pertanto si suppose che il loro volume fosse molto inferiore a quello degli atomi o degli ioni ordinari. Misurando la deviazione subita da tali particelle in un campo magnetico, si giunse alla conclusione che la più piccola di esse aveva carica e massa uguali a quelle dello ione idrogeno, nell’ipotesi che quest’ultimo trasporti la più piccola quantità possibile di carica positiva; se ne dedusse che la particella che costituiva i raggi positivi fosse la particella positiva fondamentale, quindi l’opposto dell’elettrone. Rutherford la denominò ”protone” (dalla parola greca che significa «primo»).

Protone ed elettrone hanno effettivamente cariche elettriche uguali, benché di segno opposto, tuttavia la massa del protone è 1836 volte maggiore di quella dell’elettrone. A questo punto appariva verosimile che un atomo fosse composto di protoni ed elettroni, le cui cariche si controbilanciavano; sembrava anche probabile che i protoni stessero nell’interno dell’atomo, perché non possono essere facilmente staccati da quest’ultimo, com’è invece possibile per gli elettroni. Ora, però, l’interrogativo fondamentale riguardava la struttura formata da queste particelle costitutive dell’atomo.

Fu lo stesso Rutherford a trovare il bandolo della matassa. Tra il 1906 e il 1908 egli seguitò a bombardare con le particelle alfa sottili lamine di metallo (d’oro o di platino, per esempio) per studiarne gli atomi: gran parte dei proiettili attraversavano la lamina senza essere deviati (così come delle pallottole possono passare tra le foglie di un albero indisturbate), ma non tutti. Rutherford aveva collocato dietro al metallo una lastra fotografica che fungeva da bersaglio, e trovò, intorno al suo centro, un’inaspettata rosa di colpi che si erano dispersi; alcune particelle, inoltre, erano rimbalzate all’indietro! Era come se alcune pallottole non fossero semplicemente passate tra le foglie, ma fossero rimbalzate su qualcosa di più solido.

Rutherford giunse alla conclusione che esse avevano colpito qualcosa di simile a un nucleo compatto, che occupava solo una parte molto piccola dell’atomo. A quanto sembrava, la maggior parte del volume dell’atomo doveva essere occupata dagli elettroni. Le particelle alfa “sparate” contro la lamina metallica incontravano perlopiù soltanto elettroni e attraversavano questo velo di particelle leggere senza venirne deviate; ogni tanto, però, poteva accadere che una particella alfa colpisse il nucleo più denso dell’atomo, e venisse deflessa.

Il fatto che ciò accadesse molto raramente mostrava quanto dovessero essere minuscoli i nuclei atomici, visto che una particella che attraversa un foglio di metallo deve incontrare parecchie migliaia di atomi.

Era logico supporre che questo nucleo più compatto fosse fatto di protoni. Rutherford descrisse i protoni come una piccola folla addensata in un minuscolo “nucleo atomico” al centro dell’atomo. In seguito è stato dimostrato che il diametro del nucleo è poco più di 1 su 100 mila di quello dell’atomo.

Questo, dunque, è il modello fondamentale dell’atomo: un nucleo carico positivamente, che occupa uno spazio piccolissimo ma contiene quasi tutta la massa dell’atomo, circondato da una “schiuma” di elettroni che occupa quasi tutto il volume dell’atomo, ma praticamente non contribuisce alla sua massa. Per questa ricerca straordinariamente pionieristica sulla natura ultima della materia Rutherford ricevette il premio Nobel per la chimica nel 1908.

Nel 1930, due fisici tedeschi, Walther Bothe e Herbert Becker, riferirono di aver causato l’emissione da parte del nucleo di una nuova radiazione misteriosa, eccezionalmente penetrante. Tale radiazione era stata ottenuta bombardando atomi di berillio con particelle alfa. L’anno prima, Bothe aveva ideato dei metodi per usare due o più contatori congiuntamente nei “conteggi a coincidenza”. Grazie a essi si potevano individuare eventi nucleari che avvenivano in un milionesimo di secondo. Per questo e altri contributi egli ebbe il premio Nobel per la fisica nel 1954.

Due anni dopo la scoperta di Bothe e Becker, una scoperta analoga fu fatta dai fisici francesi Frédéric e Irène Joliot-Curie. (Irène era la figlia di Pierre e Marie Curie, e Joliot, sposandola, aveva aggiunto al proprio il cognome Curie.) Essi avevano usato la radiazione scoperta di recente, emessa dal berillio, per bombardare la paraffina, una sostanza simile alla cera, composta di idrogeno e carbonio. La radiazione espelleva protoni dalla paraffina. Il fisico inglese James Chadwick pensò subito che la radiazione fosse costituita di particelle. Per determinare le loro dimensioni, bombardò degli atomi di boro con tali particelle e calcolò, in base all’aumento della massa del nuovo nucleo formatosi, che la massa della particella aggiunta al boro sarebbe dovuta essere circa uguale a quella del protone. Eppure tale particella non era osservabile in una camera di Wilson. Chadwick giunse alla conclusione che la particella fosse priva di carica elettrica; infatti in tal caso non avrebbe prodotto ionizzazione e per questa ragione non si sarebbe verificata la condensazione delle goccioline di acqua.

Così Chadwick stabilì che si era in presenza di una particella completamente nuova, che aveva circa la stessa massa del protone, ma era priva di carica, ossia elettricamente neutra. Da tempo era stata presa in considerazione la possibilità che esistesse una simile particella, per la quale era stato anche proposto un nome: “neutrone”. Chadwick accettò tale nome. Per la scoperta del neutrone gli fu conferito il premio Nobel per la fisica nel 1935.

Questi tre, protoni, neutroni ed elettroni, sono gli elementi costituenti l’atomo. Ma possiamo andare più a fondo? Certamente, e la prossima volta vedremo la famiglia delle particelle e capiremo perché la scoperta della particella Xi è così importante.

Un nodo gordiano

Gordio era un contadino e viveva in Frigia. La Frigia (in greco: Φρυγία) era una regione storica dell’Anatolia centrale, abitata dai Frigi, che si stabilirono nella zona nel 1200 – 1100 a.C. circa, estendendosi ad oriente fino al fiume Halys, dove adesso si trova Ankara, e a occidente alle coste del Mare Egeo.

Quando un’aquila si posò sul suo aratro, Gordio interpretò il fatto come il segno che un giorno sarebbe diventato re. L’oracolo di Sabazio confermò il suo destino futuro: infatti i Frigi, trovandosi senza sovrano, consultarono l’oracolo ed ebbero come responso che avrebbero dovuto eleggere come re il primo uomo che fosse salito al tempio con un carro. Fu così che apparve il fattore Gordio, sul suo carretto guidato da buoi.

Gordio fondò l’omonima città di Gordio, che divenne la capitale della Frigia. Il suo carro venne conservato nell’acropoli della città. Il suo giogo venne assicurato con un intricatissimo nodo detto da allora “nodo di Gordio”, o “nodo gordiano”. La leggenda voleva che chiunque fosse riuscito a sciogliere quel nodo sarebbe diventato signore dell’Asia ovvero dell’allora territorio dell’Anatolia.

Nel 333 a.C. successe però un fatto. Plutarco racconta: “Presa Gordio… vide quel celebrato cocchio legato da corteccia di corniolo e venne a conoscenza di quella tradizione divulgata tra i barbari secondo la quale chi ne avesse sciolto il nodo sarebbe diventato il re del mondo. La maggior parte degli storici afferma che Alessandro, non essendo in grado di sciogliere quel nodo perché i capi delle corde erano nascosti e tra loro aggrovigliati in più giri, lo tagliò con la spada”

L’Alessandro raccontato da Plutarco era proprio lui, il futuro dominatore del mondo allora conosciuto, Alessandro Magno (c’è chi dice che io abbia chiamato mio figlio Alessandro per lo stesso motivo…).

Da allora l’espressione “nodo gordiano” designa una difficoltà insormontabile, che è risolvibile solo con un’estrema risolutezza (come appunto fece Alessandro, che invece di slacciarlo lo spezzò con un fendente).

E a proposito di argomenti difficili, oggi mi voglio avventurare nel mondo delle droghe, in particolare delle cosiddette “droghe leggere”.

Droga leggera è una locuzione di uso comune per indicare sostanze stupefacenti incapaci di creare dipendenza nel senso medico del termine, e le cui proprietà psicotrope sono piuttosto trascurabili. In particolare, con questa locuzione si identificano le piante del genere Cannabis (canapa) e le sostanze psicotrope da esse ricavabili, principalmente marijuana e hashish (dalla lavorazione delle infiorescenze femminili), ma a volte il termine può venire esteso agli psichedelici come funghi del genere psylocibe, DMT, LSD, i quali come la canapa non danno dipendenza fisica e non hanno una elevata tossicità.

Ma sarà vero? Vediamo di affrontare la questione come sempre, dall’inizio.

C’è in genere molta confusione e scarsa conoscenza scientifica, a livello di opinione pubblica, in tema di “droghe”; già una dicitura del genere è da ritenersi sostanzialmente priva di fondamento, in quanto accomunerebbe tutte le sostanze dotate di un qualche effetto psicotropo o neuronale e in grado d’indurre “dipendenza” in un unico insieme, per quanto gli elementi che lo compongono non abbiano alcuna reale attinenza botanica, chimica o scientifica fra loro.

Lo scrittore francese Jaques Derrida ad esempio, autore di “Rhétorique de la drogue” del 1986, nel discutere il concetto di droga affermò: “Non si può non concludere che il concetto di droga sia un concetto senza base scientifica, istituito sulla base di valutazioni politiche o morali”. Dipendenza e droga sono in tal senso due concetti che vengono spesso demonizzati psicologicamente dall’opinione pubblica, suscitano moti d’animo e opinioni in genere preconcette senza che si possieda una reale conoscenza dei fenomeni, delle dinamiche e delle sostanze coinvolte.

Questo è un preludio fondamentale per capire come la dicotomia tra “droghe leggere e pesanti” sia solo un semplicistico riferimento, vagamente basato sull’oggettiva differenza quanto ad effetti, induzione di dipendenza fisica ed incidenza sociale dei derivati della pianta di Cannabis rispetto ai derivati di piante come il papavero o la coca; semplicistico riferimento perché ad esempio, in questo senso, bisognerebbe senza indugio considerare in base agli stessi parametri di pesantezza degli effetti, dipendenza fisica ed incidenza sociale anche l’alcool come una “droga pesante”, percepita diversamente dalle succitate sostanze solo in virtù del proprio status legale che la vede tollerata in tutto il mondo occidentale. L’espressione “droghe pesanti e droghe leggere” è da ritenersi dunque un termine principalmente colloquiale per indicare, rispettivamente, sostanze psicoattive particolarmente dannose e sostanze che sono ritenute non induttrici di dipendenza (o induttrici di dipendenza ridotta) e meno dannose di quelle pesanti. L’espressione “droghe leggere” è considerata controversa dai critici della medesima perché implica che la sostanza causi danni nulli o insignificanti.

Ma vediamo se è proprio così.

La marijuana, ad esempio, è una delle droghe ricreative più usate al mondo e si ottiene essiccando le infiorescenze resinose delle piante femminili di cannabis. Esistono diverse varietà di cannabis che vengono usate da millenni in tutto il mondo e per diversi scopi: ricreativo, medicinale, cerimoniale e religioso, come per i rastafariani, o meditativo come per i sadhu indiani o per i monaci buddisti del Nepal.

Ma come funziona esattamente la marijuana?

Il modo più comune di consumare la marijuana è fumarla, che è anche il metodo più veloce per far entrare il principio attivo, il thc, in circolo nel nostro sangue e da lì al cervello. In alternativa la marijuana può essere mangiata ricevendone un effetto più fisico, che dura decisamente più a lungo.

La pianta della cannabis contiene centinaia di sostanze chimiche ma la più importante e nota tra queste è il delta-9-tetraidrocannabinolo o semplicemente “thc”, il principio attivo responsabile degli effetti della marijuana sul nostro organismo.

Quando la marijuana viene fumata il thc contenuto nei fiori e nella resina viene vaporizzato e inalato entrando nei nostri polmoni che sono foderati di milioni di minuscole spugnette assorbi-aria chiamate comunemente alveoli: questi normalmente servono ad assorbire l’ossigeno quando inspiriamo e a rilasciare anidride carbonica quando espiriamo. Ma quando fumiamo insieme all’ossigeno assorbono anche il thc facendolo entrare direttamente nel nostro flusso sanguigno; in questo modo in pochi secondi il thc si fa strada attraverso i vasi sanguigni fino al cervello.

Il cervello umano è pieno di miliardi di cellule che elaborano le informazioni chiamate neuroni che comunicano tra di loro attraverso le sinapsi.

Una sinapsi è come un corridoio dove si aprono due porte che danno su due neuroni diversi: attraverso il corridoio, i due neuroni si scambiano informazioni sotto forma di impulsi elettrici o di molecole chimiche, ovvero tramite i neurotrasmettitori.

Il nostro cervello usa diversi tipi di neurotrasmettitori: ogni tipo di neurotrasmettitore è responsabile dell’attivazione di specifici recettori dei neuroni, che a loro volta attivano il neurone stesso causando specifiche reazioni nell’organismo umano; è da qui che entra in gioco il thc della marijuana, la cui molecola, essendo molto simile ai neurotrasmettitori endocannabinoidi riesce a legarsi ai loro recettori e attiva specifici neuroni causando in questo modo i tipici effetti della marijuana sulla nostra mente e sul nostro corpo.

Sono quattro le parti del cervello che hanno la massima densità di recettori cannabinoidi:

  • i gangli della base, che controllano i movimenti involontari e la coordinazione motoria;
  • l’ippocampo, che è responsabile della memoria a breve termine: ecco spiegato perché quando si assume thc si ha difficoltà a ricordare gli eventi recenti o a focalizzarsi;
  • il cervelletto, che controlla equilibrio e coordinamento motorio;
  • l’ipotalamo, che svolge un ruolo fondamentale nella regolazione dell’appetito e quindi di quanto cibo assumiamo.

Chi usa marijuana descrive l’effetto come una sensazione di spensieratezza e serenità; le pupille possono dilatarsi rendendo i colori più vividi e con il passare del tempo potrebbe sopraggiungere una forte sensazione di euforia o, in alcuni casi, un senso di panico diffuso. La marijuana inoltre è un forte vasodilatatore, motivo per cui viene utilizzata come medicinale dai malati di glaucoma, che beneficiano moltissimo della riduzione della pressione intraoculare; infine quando il thc si lega con i recettori cannabinoidi nell’ipotalamo la nostra capacità di controllare la fame viene compromessa e così abbiamo bisogno di cibo, diventando così vittime della cosiddetta fame chimica.

Ricordiamo infine che gli effetti dell’assunzione di thc da marijuana o hashish tramite fumo, vaporizzazione o ingestione sono sempre temporali e svaniranno nel peggiore dei casi dopo qualche ora: ma attenzione perché studi riconosciuti dimostrano che il consumo cronico di marijuana può favorire disturbi d’ansia e paranoia nei soggetti predisposti e negli adolescenti può portare a una diminuzione fino a 8 punti del quoziente intellettivo in età adulta.

Come l’oppio e l’eroina, le origini della marijuana sono in Asia, da dove è stata poi esportata in tutto il mondo, diffondendosi negli Stati Uniti durante il proibizionismo, quando non c’era modo di bere un goccio d’alcol e la voglia di riunirsi segretamente, ballare e andare fuori di testa era ai massimi livelli.

Negli anni ’30, però, la marijuana in America era associata al diavolo, alla discesa negli inferi, all’horror in generale. Un celebre film del tempo, “Marihuana, the devil’s weed”, arrivato in Italia col titolo “Marijuana, l’erbaccia diabolica”, già spiegava molto della strana associazione. Diretto da Dwain Esper e scritto dalla moglie, era un exploitation movie, genere che andava forte in quegli anni, tutto sesso e violenza, senza grossa cura per la parte estetica e spesso con un messaggio da veicolare. Tipo, in questo caso, l’erba fa male. Nella pellicola, Burma è una ragazza che, dopo aver fumato, si ritrova in una serie di guai che nemmeno ad andarseli a cercare la notte. Gli slogan parlavano chiaro: l’erba con le radici all’inferno, vergogna, orrore e disperazione.

Ma perché tanto accanimento? La marijuana veniva usata dal 7000 Avanti Cristo ed era riconosciuta come erba medicinale e antidolorifico da Egizi, Cinesi, Greci e Romani, anche se nei libri di storia o nei film in costume difficilmente si vede un Centurione farsi un cannone dopo un crampo.

Se si era arrivati a proibire l’alcol, immaginate quale potesse essere la preoccupazione dell’F.B.I. per la marijuana: Harry J. Ansliger, ispettore del Bureau of Prohibition, fece creare manifesti, libri e film talmente estremi e spaventosi, nella sua mente, da impaurire i giovani e farli desistere dal divertirsi. L’importante era impaurire suggerendo situazioni estreme, anche se poco verosimili.

Oggi, con la legalizzazione delle droghe leggere in Colorado, sono diminuiti i reati e sono diminuite le tasse. Infatti nel 2012 il Colorado ha fatto una scelta rivoluzionaria nel panorama legale degli Stati Uniti. Nel novembre di quell’anno infatti è stato approvato l’emendamento 64, che ha segnato (insieme alla contemporanea “Initiative 502” dello stato di Washington) il primo esempio di legalizzazione del consumo di cannabis sul territorio americano. Da quel momento, il Colorado si è trasformato in una sorta di laboratorio permanente, guardato da vicino sia dai promotori che dai nemici dell’approccio soft nella guerra alle droghe. Negli ultimi decenni d’altronde la cannabis si è trasformata in un tema caldo negli Stati Uniti, dove tra legalizzazioni, depenalizzazioni e via libera alla marijuana terapeutica, solamente 22 dei 50 stati che compongono il paese continuano ad applicare la tolleranza zero.

Le preoccupazioni maggiori come diciamo sono riservate solitamente per gli adolescenti, che secondo molti studi sono la categoria più a rischio in caso di abuso di cannabis. La causa sarebbe di un cervello ancora in formazione, di cui la sostanza può modificare strutture e funzioni, favorendo lo sviluppo di patologie mentali nell’età adulta. In questo senso, i dati che arrivano dal Colorado sono consolanti: nel 2009, prima della legalizzazione, il 25% degli adolescenti dello stato aveva fumato marijuana almeno una volta nel mese precedente alla rilevazione, mentre nel 2015 la percentuale si attesta intorno al 21%, poco al di sotto della media statunitense. La vendita della marijuana a scopo ricreativo in Colorado è iniziata nel 2014, e quindi i nuovi dati riflettono la situazione dopo due interi anni di libera vendita.

Personalmente, non sono favorevole all’uso di sostanze stupefacenti, ma, indipendentemente dal mio rapporto con qualunque tipo di sostanza, dal mio stile di vita, dalle mie passioni e dalle mie repulsioni, ritengo che le istituzioni dovrebbero affrontare meglio il problema. Spesso, in Italia, le discussioni sui temi più delicati sono travolte da un furore ideologico che oscura i fatti e impedisce un dibattito sereno. E non è possibile che una parte dei cittadini, che la parte maggiore delle istituzioni religiose, con il peso che la Chiesa Cattolica ha in Italia, e che la politica tutta, tranne pochissime eccezioni, si rifiutino di affrontare seriamente e con responsabilità questo tema.

So che la legalizzazione delle droghe è un tema complicato, difficile da proporre e da affrontare. So che pone molti problemi soprattutto di carattere morale, ma un Paese come il nostro, che ha le mafie tra le più potenti del mondo, non può eluderlo.

E, soprattutto, ci sarà un “Alessandro Magno” che avrà l’audacia di spezzare questo nodo?

La dinamica

Tempo fa avevo annunciato in “Introduzione alla fisica” della volontà di occuparmi in maniera più organica e ordinata di fisica, ma dopo un anno ancora non ci sono riuscito. Il tempo libero scarseggia e siccome questo di scrivere è un hobby, mi piacerebbe rimanesse tale (almeno per ora, Marcello, non ti preoccupare).

In tutti i modi, oggi proverò a riprendere da dove avevo interrotto e ricomincio parlando di dinamica.

Fin ad ora ci siamo limitati ad osservare il moto (nel precedente articolo “La cinematica”) e a discuterne varie caratteristiche introducendo quantità come la velocità e l’accelerazione che ci aiuteranno nella comprensione delle cose che seguiranno.

La dinamica è il ramo della meccanica che si occupa dello studio del moto dei corpi e delle sue cause o, in termini più concreti, delle circostanze che lo determinano e lo modificano. Lo studio completo della meccanica comprende anche la statica e la cinematica: la dinamica si differenzia dalla prima che studia le configurazioni di equilibrio meccanico, dalla seconda che studia, in astratto, tutti i moti concepibili ma non si occupa di determinare quali moti possono avvenire in un determinato contesto sperimentale.

Secondo l’intuizione fondamentale di Galileo e Newton, le forze non sono la causa del moto, ma producono una variazione dello stato di moto, ovvero un’accelerazione. Questa intuizione equivale ad affermare la relatività del movimento; un osservatore può determinare il suo stato di quiete o di moto solo relativamente ad altri corpi (o altri osservatori). Per questo è possibile parlare delle cause che variano il moto, ma non delle cause del moto.

Lo studio della dinamica si conduce innanzitutto riferendosi a un’entità astratta, dotata di massa ma con dimensioni trascurabili: il punto materiale. Tutte le leggi riferite al punto materiale possono essere poi estese ai corpi reali (dotati di massa e di dimensioni finite) interpretati come sistemi di punti materiali; se ci si occupa di corpi nei quali le distanze relative tra i punti costituenti il sistema non variano nel tempo, si parla di “dinamica dei corpi rigidi”; in caso contrario si parla di “dinamica dei corpi deformabili”.

Come accennavo, Galileo Galilei (1564 – 1642) ed Isaac Newton (1642 – 1727) furono fautori di una vera e propria rivoluzione. E come avrete notato, l’anno di nascita di Newton è anche l’anno di morte di Galilei. Cosa significa? Assolutamente nulla, ma mi andava di scriverlo…

Prima di Galileo la conoscenza dei fenomeni naturali era essenzialmente legata all’osservazione diretta; da Galileo in poi l’osservazione si integrò con la sperimentazione. Prima di Galileo gli strumenti erano pochi, usati per alcune misure matematiche e astronomiche o più spesso impiegati per soddisfare bisogni quotidiani; da Galileo in poi gli strumenti diventarono ineliminabili ausili per ampliare le conoscenze scientifiche.

Prima di Newton la cultura scientifica non esisteva neppure, perché era ferma alle visioni aristoteliche, cioè che la sfera terrena era composta da 4 elementi (terra, aria, acqua, fuoco) mentre quelle celesti erano fatte di un solo, quinto elemento (l’etere, perfetto ed incorruttibile). Sulla terra i quattro elementi tendevano a ritornare nel luogo che gli competeva (il cielo compete al fuoco ed all’aria, mentre il suolo compete alla terra ed all’acqua); quindi la terra e l’acqua tendevano a cadere (per ritornare al suolo) mentre l’aria ed il fuoco tendevano a risalire (per ritornare al cielo).

Newton però fissò delle leggi e delle regole precise; cerchiamo prima di capire cosa sia la dinamica e come arrivare a quelle leggi.

Tutti noi abbiamo sperimentato il fatto che per ”mettere in moto” un oggetto occorre effettuare uno ”sforzo”. Infatti nell’accezione comune la forza è legata ad un’azione muscolare: tutti sappiamo anche che dobbiamo esercitare una grande forza per spingere una macchina, ma che probabilmente non siamo in grado di spingere un camion per quanto sforzo possiamo esercitare. Dunque in qualche modo il moto ha a che fare con la quantità di materia e con lo sforzo che si esercita.

Dato che per far muovere un corpo è necessario esercitare uno sforzo, si è pensato per lungo tempo che per far viaggiare un corpo con velocità costante occorresse una forza. D’altra parte questa osservazione non spiega perché per smuovere un corpo occorra uno sforzo muscolare (o una forza) molto superiore. Analogamente, per fermare un corpo in movimento occorre uno sforzo superiore a quello necessario per mantenerlo in moto. La spiegazione odierna è che occorre considerare tutti gli effetti a cui è sottoposto un corpo in movimento.

Infatti consideriamo una palla con una superficie molto liscia che rotoli su una superficie anch’essa molto liscia. Se la mettiamo in movimento con una spinta essa continuerà a rotolare per un bel tratto, ma alla fine si fermerà. Nella vecchia teoria dell’impetus, la spiegazione era che la palla perdeva lentamente la forza (l’impetus) che le era stata applicata. Questa nozione persiste tutt’oggi come nozione di senso comune e deriva da una sorta di identificazione tra lavoro effettuato e forza applicata. In ogni caso, se ripetiamo l’esperienza precedente della palla su una superficie più ruvida, stando attenti a fornirle uguale spinta, si vedrà che la palla effettuerà un percorso più breve. Questo ci suggerisce che siano le irregolarità della superficie ad ostacolare il moto. Ovviamente queste irregolarità non sono completamente eliminabili. Anche se studiassimo il moto all’interno di una camera a vuoto, qualche piccolo effetto di resistenza al moto sarebbe sempre presente, visto che anche con le migliori tecniche a nostra disposizione una piccola quantità di aria rimane sempre presente (circa 108 atomi/cm3 nel vuoto migliore).

Possiamo però pensare ad una situazione idealizzata, come abbiamo fatto nel caso della caduta dei gravi nel precedente “paragrafo”, dove si ipotizza la possibilità di avere superfici perfettamente lisce e/o ambienti completamente privi di gas. Le esperienze precedenti suggeriscono che in queste condizioni, una volta messo in moto un corpo, e nessun’altra forza applicata, il corpo continui nello stato di moto che aveva al momento in cui la forza applicata è cessata. L’affermazione che il corpo rimane nel suo stato di moto significa che se possiede una certa velocità e quando cessa la forza, questo continuerà a mantenerla. Se il corpo era inizialmente in quiete con nessuna forza applicata, il corpo rimarrà in quiete. Questo è il contenuto della prima legge di Newton che per altro era già nota a Galileo ed a Cartesio.

  1. Il principio di inerzia o primo principio della dinamica: Se su un corpo non agiscono forze o agisce un sistema di forze in equilibrio, il corpo persevera nel suo stato di quiete o di moto rettilineo uniforme.

Per “sistema di forze in equilibrio” si intende un insieme di forze la cui somma vettoriale sia nulla (se spingo un oggetto da due lati opposti, è ovvio che non si muova).

Questa legge non ci dice molto nei riguardi di una definizione quantitativa della forza, però ce ne descrive gli effetti qualitativi. Per esempio, ci dice che la presenza di una forza sarà connessa con un’accelerazione non nulla ed in questo senso ci dà una sorta di definizione operativa della forza stessa. Cioè ci dice che l’effetto di una forza è quello di produrre una variazione di velocità. Questa variazione di velocità è detta appunto accelerazione.

In termini “tecnici” (o, meglio, differenziali), l’accelerazione è la derivata rispetto al tempo del vettore velocità, così come la velocità è la derivata del vettore posizione rispetto al tempo. Per quello, essendo la derivata di una derivata, l’accelerazione si esprime in metri al secondo per secondo.

Ci sono molte applicazioni della prima legge di Newton. Basti pensare ad esempio a cosa succede quando andiamo in automobile. Avete mai osservato il comportamento di una bibita in auto quando si passa dallo stato di riposo (auto ferma) allo stato di moto? La bibita, che è a riposo, ”tende” a rimanere nel suo stato di riposo e se il bicchiere è pieno fino all’orlo, il liquido si rovescia. Viceversa, quando un’auto frena, la bibita ”tende” a preservare il suo stato di moto con la stessa velocità, e nuovamente si rovescia. Quindi non bevete bibite mentre accompagnate i vostri amici alle guide per prendere la patente.

 La stessa cosa succede all’autista dell’auto. Quando frena, subisce l’effetto della propria inerzia. Infatti tenderà a mantenere il proprio moto. Sarà la cintura di sicurezza ad applicare su di lui una forza tale da farlo fermare insieme alla sua auto.

Ma cos’è l’inerzia? Possiamo definirla come la tendenza naturale dei corpi a ”resistere” alle variazioni del loro stato di moto.

In realtà il concetto di inerzia, fu introdotto da Galileo, che ipotizzò l’esistenza di una forza, detta forza d’attrito, come responsabile dell’arresto del moto degli oggetti. Le sue esperienze si servivano di piani inclinati posti uno di fronte all’altro. Galileo osservò che una pallina scendeva da un piano inclinato e saliva sull’altro arrivando circa alla stessa altezza. Cambiando inclinazione di uno dei piani inclinati, osservò che ancora la pallina raggiungeva la stessa altezza di partenza, quindi percorrendo spazi maggiori. Ipotizzò che le piccole differenze nelle quote raggiunte fossero dovute alla presenza di una forza di attrito e concluse che nel caso ideale in cui l’attrito fosse completamente eliminato la pallina raggiungerebbe esattamente la stessa altezza. Questo significa che riducendo sempre più l’inclinazione di un piano inclinato, la pallina percorrerà distanze sempre maggiori, fino ad arrivare al caso in cui, in assenza di attrito, la pallina continua nel suo stato di moto a velocità costante.

Abbiamo detto che l’inerzia è la tendenza di un oggetto a resistere alle variazioni del suo stato di moto. Ma cosa intendiamo con ”il suo stato di moto”? Lo stato di moto di un oggetto è definito dalla sua velocità. Quindi possiamo dire che l’inerzia di un corpo è la sua tendenza a resistere alle variazioni di velocità. Inoltre, come abbiamo imparato, le variazioni di velocità sono legate all’accelerazione. Quindi l’inerzia di un corpo è la sua tendenza a resistere all’accelerazione.

Nell’enunciato della prima legge di Newton, si dice che se la forza totale che agisce su un corpo è nulla, allora l’accelerazione a cui è soggetto il corpo è nulla. La forza totale è la risultante di tutte le forze che agiscono sul corpo. Se la risultante è nulla, significa che tali forze si fanno equilibrio. Quindi la prima legge di Newton afferma che “se le forze che agiscono su un corpo non sono in equilibrio, allora il corpo subirà un’accelerazione”.

La relazione esistente tra forza e accelerazione è contenuta nella seconda legge di Newton. Più precisamente la seconda legge di Newton dà una relazione tra tre quantità: massa, forza ed accelerazione. Mentre abbiamo dato una definizione operativa di accelerazione, dobbiamo ancora definire le altre due quantità. Ma leggiamoci prima la seconda legge.

2. La legge fondamentale della dinamica o secondo principio della dinamica: Se su un corpo agisce una forza o un sistema di forze, la forza risultante applicata al corpo possiede direzione e verso della sua accelerazione e, in modulo, è direttamente proporzionale al modulo la sua accelerazione.

La costante di proporzionalità tra queste due grandezze è la massa, detta in questo caso “massa inerziale”, grandezza specifica di ciascun corpo. Questa legge può essere enunciata mediante l’equazione

F=ma

dove F è la risultante delle forze agenti sul corpo, m la massa dello stesso, e a l’accelerazione cui è soggetto.

In pratica il moto accelerato si produce solo tramite l’applicazione di una forza, l’accelerazione prodotta su di un corpo da una data forza è proporzionale alla forza stessa e la costante di proporzionalità è detta massa del corpo.

Possiamo adesso usare la seconda legge di Newton per fissare delle convenienti unità di misura per le forze e definire poi la massa. Andiamo a Gaithersburg, nel Maryland, presso il National Institute of Standards and Technology e trafughiamo nottetempo la massa campione di platino iridio (di cui avevamo già parlato): applicandogli una forza tale da produrre un’accelerazione di 1 m/sec2, diremo che la forza ha un valore di 1 Newton, abbreviato 1 N. In questo modo possiamo tarare i nostri dinamometri assegnando ad ogni forza, determinata precedentemente in relazione ad un peso campione, un valore in Newton. Dalla equazione vediamo che l’unità di forza è uguale all’unità di massa per l’unità di accelerazione, ovvero

1 N = 1 Kg m/sec2

A questo punto, usando un apparecchio del tipo mostrato in figura che segue,

dinamometro

possiamo misurare la massa di un corpo, semplicemente misurando l’accelerazione del corpo e la forza ad esso applicata usando un dinamometro. Si può inoltre verificare che le masse si sommano. Cioè la stessa forza applicata ad una massa doppia, produce un’accelerazione pari alla metà.

Ricordiamo l’esperimento di Galileo che realizzò dalla Torre di Pisa, in cui asseriva che tutti gli oggetti in caduta libera subiscono la stessa accelerazione, indipendentemente dalla loro massa. Consideriamo il moto di un sasso con una massa di 10 Kg e quello di una massa di 1 K. Sul sasso di 10 Kg agisce una forza 10 volte maggiore della forza che agisce sul sasso di 1 Kg e l’accelerazione dei due sassi è la stessa: l’accelerazione di gravità (9,8 m/s2).

Quindi possiamo dire che la forza di gravità è proporzionale alla massa e costante per tutti gli oggetti: spesso il peso di un corpo non viene espresso in N ma in Kgp (chilogrammo peso). Ricordiamo che il Kgp è l’intensità della forza peso a cui è soggetta la massa di un Kg. Quindi, ad esempio, 1 Kg di pane pesa 1 Kgp, cioè 9,8 Newton (e io 872,2, ma non ditelo a mia moglie altrimenti mi mette a dieta).

Il panorama della dinamica è completato dalla terza legge di Newton. Abbiamo dato una definizione operativa di forza dall’analisi di situazioni di equilibrio (definizione statica di forza). Possiamo però considerare una definizione più generale di forza come l’effetto su di un oggetto che deriva dalla sua interazione con un altro oggetto. Ogni volta che c’è interazione tra due oggetti, c’è una forza che agisce su ciascuno di essi. Quando l’interazione cessa i due oggetti non sono più sottoposti a forza. Per semplicità, tutte le forze (interazioni) tra oggetti, possono essere divise in due categorie: forze di contatto e forze che risultano da interazioni a distanza. Le forze di contatto sono tipi di forza tra due corpi che sono effettivamente a contatto. Questo è ad esempio il caso delle forze di attrito, delle forze di reazione di superfici di appoggio, delle forze di resistenza dell’aria ecc. Le forze di azione a distanza sono tipi di forza in cui i due oggetti interagenti non sono a contatto fisico, come ad esempio nel caso della forza gravitazionale (il sole e i pianeti si attraggono nonostante siano separati spazialmente, anche nel caso in cui un oggetto non tocca il suolo, è attratto dalla forza gravitazionale), oppure il caso della forza elettrica (i protoni nel nucleo atomico attraggono gli elettroni), le forze magnetiche (due calamite si attraggono o si respingono anche se sono separate da una distanza di qualche centimetro).

Quindi ne risulta:

3. Il principio di azione-reazione o terzo principio della dinamica: Se due corpi interagiscono tra loro, si sviluppano due forze, dette comunemente azione e reazione: come grandezze vettoriali sono uguali in modulo e direzione, ma opposte in verso.

Questa affermazione significa che in ogni interazione, c’è una coppia di forze che agisce sui due oggetti interagenti. Tale coppia è formata dalla forza di azione e da quella di reazione (uguali in modulo, con la stessa direzione ma verso opposto).

Attenzione, le forze di azione e reazione non si fanno equilibrio, perché sono applicate a oggetti diversi! Esiste una grande quantità di situazioni in cui due forze uguali ed opposte agiscono sullo stesso oggetto, annullandosi a vicenda cosicché non si avrà alcuna accelerazione (o addirittura nessun moto). Questo non riguarda il terzo principio della dinamica (terza legge di Newton), ma piuttosto un caso di equilibrio tra forze.

Chi ha familiarità con le piccole imbarcazioni sa bene che prima di saltare da una barca verso il molo di attracco, è opportuno legare prima la barca al molo e afferrare una presa sul molo prima di saltare. Altrimenti, quando saltate, la barca “magicamente” si allontana dal molo, facendovi fallire il salto, oppure spingendo la barca fuori dalla vostra portata. Tutto questo è dovuto alla terza legge di Newton: quando le gambe spingono il vostro corpo verso il molo, esse esercitano anche sulla barca una forza uguale e in verso opposto, e questa forza spinge via la barca dal molo (c’è un esempio anche nel film “Passengers” quando Chris Pratt, alla deriva nello spazio, spinge verso un reattore un oggetto e automaticamente viene spinto nella direzione opposta).

Un esempio più sottile è fornito dalla bicicletta. È ben noto che stare in equilibrio su una bicicletta da fermo è quasi impossibile, mentre su una bicicletta in moto è piuttosto facile. Perché?

Diversi principi sono all’opera in questo caso. Supponete di sedervi su una bicicletta che stia ferma, e vi accorgete che si sta inclinando verso sinistra. Che cosa fate? La tendenza naturale è quella di inclinarvi verso destra, per controbilanciare quell’inclinazione mediante il vostro peso. Ma muovendo la parte superiore del vostro corpo verso destra, secondo la terza legge di Newton, state in realtà spingendo la bicicletta ad inclinarsi ancora di più verso sinistra. Forse dovreste inclinarvi verso sinistra per spingere la bicicletta indietro? Potrebbe funzionare per una frazione di secondo, ma a quel punto voi avete perso del tutto l’equilibrio. Non c’è modo!

Su una bicicletta in movimento, l’equilibrio è mantenuto mediante un meccanismo completamente diverso. Ruotando leggermente il manubrio a destra o a sinistra, voi impartite una certa rotazione alla ruota anteriore (“momento angolare”) per ruotare la bicicletta attorno al suo asse maggiore, la direzione di marcia della bicicletta. In questo modo il ciclista può controbilanciare ogni tendenza della bicicletta a cadere da un lato o dall’altro, senza innescare il circolo vizioso di azione e reazione.

Per scoraggiare i ladri, alcune biciclette montano un antifurto che blocca il manubrio in una posizione fissa. Se la posizione del manubrio è bloccata nella direzione in avanti, la bicicletta può essere condotta a mano da una persona che cammina, ma non può essere montata, poiché il ciclista non potrebbe mantenere l’equilibrio.

Le leggi di Newton sono state introdotte qui nel modo tradizionale, mediante i concetti di massa e di forza (in realtà Newton formulò la seconda legge in termini di quantità di moto, non di accelerazione). Ernst Waldfried Josef Wenzel Mach (1838 – 1916), fisico austriaco, tra l’altro scopritore di un rapporto tra la velocità di un oggetto in moto in un fluido e la velocità del suono nel fluido considerato, detto “numero di Mach”, cercò di evitare nuovi concetti e formulò le leggi fisiche soltanto in termini di ciò che può essere osservato e misurato. Egli sostenne che le leggi di Newton si potevano riassumere tutte in questa unica legge:

“Quando due oggetti di dimensioni trascurabili (in linguaggio tecnico “punti materiali”, nda) interagiscono tra loro, essi accelerano in direzioni opposte, e il rapporto delle loro accelerazioni è sempre lo stesso”.

Rileggete questa formulazione quante volte volete: non c’è alcuna menzione di forza, né di massa, ma soltanto di accelerazione, che può essere misurata. Quando una pistola agisce su un proiettile, un razzo sui suoi gas di scarico, il Sole sulla Terra (e nella scala della distanza che li separa, Terra e Sole possono essere considerati masse puntiformi), le accelerazioni sono sempre dirette in verso opposto.

Il lavoro di Mach venne ritenuto importantissimo da Einstein, e quest’ultimo lo usò per dare le fondamenta alla relatività generale. Il tutto, partendo da una mela caduta in testa a Newton! La prossima volta approfondirò un po’ di concetti espressi in questo articolo, sperando sempre di fare cosa utile anche a te, giovane lettore. Vedremo chi era Keplero e come usò le formulazioni di Newton per farci orientare su questa nostra piccola Terra.

Un arduo pendìo

A volte, usando i mezzi pubblici, ci si rende conto di quanto lo spostamento delle persone sia un bel problema. Basta un contrattempo, come uno zaino dimenticato nello scompartimento, e migliaia di persone sono costrette a cambiare mezzo di trasporto, con tutto quel che ne consegue. Lo ha pensato anche l’ideatore di un sito, TRAVIC, che vuol dire TRAffic VIsualization Client (Client per la visualizzazione del traffico), che fornisce la visualizzazione dei movimenti dei dati di transito pubblicati dalle agenzie di trasporto provenienti da tutto il mondo praticamente in tempo reale. È bellissimo (de gustibus, ovviamente), guardatelo.

Un po’ di tempo fa ho parlato di sovrappopolazione riportando un vecchio articolo di Isaac Asimov in “Il futuro dell’umanità” e aggiungendovi poche considerazioni personali. Prendendo spunto da quello che scrisse il noto scienziato russo-americano, vorrei riaffrontare l’argomento.

Il Libro della Genesi (ebraico בראשית bereshìt, “in principio”, dall’incipit; greco Γένεσις ghènesis, “nascita”, “creazione”, “origine”; latino Genesis), comunemente citato come Genesi (femminile), è il primo libro della Torah del Tanakh ebraico e della Bibbia cristiana. Inizia così: “In principio Dio creò il cielo e la terra. La terra era informe e deserta e le tenebre ricoprivano l’abisso e lo Spirito di Dio aleggiava sulle acque.”

Poi ad un certo punto dice: “Siate fecondi e moltiplicatevi; riempite la terra, rendetevela soggetta, dominate sui pesci del mare e sugli uccelli del cielo e sopra ogni animale che si muove”.

L’uomo, inteso come umanità nel suo complesso, ha preso molto sul serio quelle parole. Guardiamo un po’ di numeri.

Appena due secoli fa “festeggiavamo” il primo miliardo. Da allora, il progresso, la tecnologia e la scienza medica hanno fatto aumentare la qualità e le aspettative di vita, aumentando in modo quasi esponenziale il numero di abitanti sulla Terra: 1,6 miliardi nel 1900, 2,5 miliardi nel 1950, 4 miliardi nel 1974, 6 miliardi nel 1999 e 7,5 miliardi oggi. Praticamente, da quando è nata la mia generazione (sono del ’68) la popolazione mondiale è quasi raddoppiata.

In effetti, anche se la popolazione mondiale è aumentata, la velocità con cui aumenta, detta “tasso di crescita”, si è quasi dimezzato rispetto al massimo raggiunto nel 1964. Nonostante questo, nel 2100 i nostri nipoti saranno quasi 10 miliardi. Guardiamo le tabelle, nelle quali ovviamente le date future sono stime, in questo caso realizzate dal Fondo delle Nazioni Unite per la popolazione (UNFPA dal vecchio nome inglese United Nations Fund for Population Activities).

Popolazione

Anni trascorsi

Anno

Miliardi

1800 1
127 1927 2
33 1960 3
14 1974 4
13 1987 5
12 1999 6
12 2011 7
14 2025* 8
18 2043* 9
40 2083* 10

Diminuzione tasso di crescita

Il progresso ha certamente migliorato le condizioni di vita, aumentando la durata della vita media, ma ha anche aumentato il fabbisogno di energia pro-capite. Le emissioni di anidride carbonica sono passate da 3,1 tonnellate equivalenti del 1960 a 5 tonnellate del 2013. Vediamo che significano queste parole che ho appena scritto.

L’anidride carbonica è un gas che si forma nei processi di combustione, dall’unione del carbonio contenuto nei combustibili con 2 atomi di ossigeno presenti nell’aria (la formula chimica è CO2). La produzione in eccesso di anidride carbonica comporta dei danni ambientali in quanto mette in pericolo l’esistenza dell’ozono, uno strato gassoso presente nell’atmosfera che protegge la terra dall’azione nociva dei raggi ultravioletti UV-C provenienti dal sole. Un altro effetto della presenza in eccesso di anidride carbonica è il surriscaldamento climatico (in inglese, “global warming”): durante il giorno la superficie terrestre accumula il calore irraggiato dal sole; nelle ore notturne il calore viene disperso nello spazio. L’eccessiva concentrazione di anidride nell’aria forma invece, una sorta di cappa che impedisce l’espulsione del calore assorbito dalla terra nelle ore diurne.

Le emissioni di CO2 (produzione di anidride carbonica) in eccesso sono una conseguenza dell’attività industriale tipica dei paesi sviluppati: per produrre energia le industrie ricorrono alla combustione dei combustibili fossili (carbone, petrolio). Anche la deforestazione incontrollata è pericolosa per il nostro ecosistema in quanto gli alberi assorbono anidride carbonica e rilasciano nell’atmosfera ossigeno. Tutti noi produciamo anidride carbonica, sia attraverso la nostra respirazione (quantità ininfluente e non dannosa per l’ambiente) sia attraverso i nostri consumi quotidiani:

  • Tenere una lampadina accesa per 4 ore produce 0,2 kg di CO2;
  • Fare una doccia significa espellere nell’aria 1 kg di CO2;
  • Fare un lavaggio in lavastoviglie equivale a farsi una doccia, 1 kg di CO2 nell’aria;
  • Tenere un freezer in attività significa generare 40 gr di CO2 all’ora;
  • Percorrere 10 km con un’auto a benzina (13 km con 1 litro) equivale ad emettere 2 kg di anidride carbonica;
  • Riscaldare un appartamento di 60 m2 contribuisce ad emissioni pari a 20 kg al giorno.

E cos’è la “tonnellata equivalente”? È un’unità di misura che permette di pesare insieme emissioni di gas serra diversi con differenti effetti climalteranti. Ad esempio una tonnellata di metano che ha un potenziale climalterante 21 volte superiore rispetto alla CO2, viene contabilizzata come 21 tonnellate di CO2 equivalente. In questo modo è possibile paragonare tra di loro gas diversi, quando si considera il loro contributo all’effetto serra. Maggiore è il GWP, maggiore il contributo all’effetto serra.

Un’altra definizione! Non ce la posso fare!

Il Global Warming Potential (GWP, in italiano “potenziale di riscaldamento globale”) esprime il contributo all’effetto serra di un gas serra relativamente all’effetto della CO2, il cui potenziale di riferimento è pari a 1. Ogni valore di GWP è calcolato per uno specifico intervallo di tempo (in genere 20, 100 o 500 anni).

I potenziali climalteranti dei vari gas (GWP) sono stati elaborati dall’Intergovernmental Panel on Climate Change (IPCC). Le tonnellate equivalenti si calcolano facendo il prodotto delle tonnellate di gas nell’impianto e il suo GWP.

Torniamo all’uomo e alle sue attività.

Avere più auto, più smartphone e più climatizzatori comporta ovviamente una richiesta di energia maggiore. Ovviamente non tutti i paesi del mondo viaggiano alla stessa velocità, basta pensare che gli U.S.A. producono il 22% delle emissioni totali nel mondo (tra gli altri, la Cina il 18%, l’Unione Europea il 14% e la Russia il 6%). Cosa accadrebbe se tutti adottassero lo stile di vita di queste quattro macroregioni, che da sole producono il 60% dell’inquinamento totale?

Ovviamente numero di abitanti e inquinamento sono quasi sempre correlati, tant’è vero che in alcuni stati, come la Cina, è stata adottata in passato la cosiddetta “politica del figlio unico”, politica di controllo delle nascite attuata dal governo nell’ambito della pianificazione familiare per contrastare il fortissimo incremento demografico del paese, poi abolita nel 2013.

Il dibattito sul controllo delle nascite ha una sua storia.

Thomas Robert Malthus nacque a Rookery, presso Guilford, nel Surrey, in Inghilterra, il 13 febbraio del 1766. Settimo figlio di Henrietta Catherine Graham e di Daniel Malthus, nacque in una famiglia benestante. Suo padre Daniel era un amico personale del filosofo David Hume e aveva contatti con Jean-Jacques Rousseau.

Il giovane Malthus fu educato a casa fino alla sua ammissione al Jesus College (Cambridge) nel 1784. Lì studiò molte materie e vinse premi in declamazione inglese, latina e greca. Si laureò nel 1791 e nel 1797 fu ordinato pastore anglicano.

Osservando le colonie del New England, dove la disponibilità “illimitata” di terra fertile forniva lo scenario ideale per indagare il rapporto tra risorse naturali e demografia, Malthus teorizzò che popolazione umana e disponibilità delle risorse seguano modelli di progressione differenti: geometrica la prima, aritmetica la seconda. Un maggior numero di esseri umani si traduce, proporzionalmente, in una minore disponibilità di risorse per sfamarli. Qualora i mezzi di sussistenza non siano illimitati, scriveva il reverendo, si sarebbero periodicamente verificate carestie con conseguenti guerre ed epidemie.

Convinto di aver individuato una legge naturale, Malthus propose che il governo abolisse i sussidi alle classi più povere, invitasse i giovani a ritardare l’età del matrimonio e si sforzasse di diffondere tra gli strati sociali meno abbienti la coscienza del danno che una prole numerosa recava alle famiglie e all’intera comunità. I rapidi progressi del settore agronomico sconfessarono già nel corso del XIX secolo il suo impopolare principio, che tuttavia ebbe un’influenza decisiva sia su Charles Darwin che su Alfred Wallace nella formulazione della teoria dell’evoluzione. Tuttavia, l’idea malthusiana che i ricchi siano minacciati dalle masse di poveri ha proiettato un’ombra cupa che si allunga fino a oggi.

Negli anni Sessanta la Banca Mondiale e le Nazioni Unite incominciarono a concentrarsi sull’esplosione demografica del cosiddetto Terzo Mondo, ritenendola la principale causa del degrado ambientale, del sottosviluppo economico e dell’instabilità politica di questi paesi. Alcune nazioni industrializzate quali Giappone, Svezia e Regno Unito finanziarono progetti per ridurre i tassi di natalità del Terzo Mondo. Non si trattava di filantropia: secondo Betsy Hartmann, autrice del saggio “Reproductive Rights and Wrongs: The Global Politics of Population Control and Contraceptive Choice”, c’era il timore che le “masse di affamati” minacciassero il capitalismo occidentale e l’accesso alle risorse naturali.

In ambito ecologico, la capacità portante di un ambiente è la capacità delle sue risorse di sostenere un certo numero di individui. Se in ambienti ridotti o isolati è relativamente semplice stimarne la dimensione, il calcolo della capacità portante dei grandi sistemi è estremamente complesso. Una relazione del 2012 delle Nazioni Unite ha stimato la dimensione massima di popolazione in 65 diversi scenari sostenibili. La dimensione più ricorrente è di otto miliardi di individui, tuttavia l’intervallo varia tra un minimo di due miliardi e uno sconcertante 1024 miliardi. È difficile sbilanciarsi su quale di queste sia la più prossima al valore effettivo. Secondo gli esperti, il fattore determinante sarà il modello che le nostre società sceglieranno di adottare e, in particolare, la quantità di risorse consumate pro capite.

Le incognite riguardano principalmente il compartimento agricolo. Al contrario della popolazione umana, la disponibilità di suolo fertile diminuisce a causa del sovra-sfruttamento e dei cambiamenti climatici. Secondo i dati della FAO, da qui alla fine del secolo la produzione agricola dovrebbe aumentare almeno del 50% per sfamarci tutti, a partire da una modesta area di terreno fertile, che copre solo l’11% della superficie globale della terra. Eppure, l’agricoltura mondiale perde ogni anno 75 miliardi di tonnellate di suolo fertile, l’equivalente di 10 milioni di ettari, a causa di urbanizzazione, erosione e avanzata del deserto e del mare. Altri 20 milioni di ettari vengono abbandonati perché il terreno è troppo degradato per coltivare, in larga misura per colpa delle tecniche agricole intensive. La perdita di fertilità del suolo porta alla riduzione della produzione agricola: un calo del 50% della materia organica porta a un taglio del 25% dei raccolti. Il fenomeno non è uguale dappertutto, ma procede particolarmente veloce proprio nelle aree che avrebbero più bisogno di ampliare le coltivazioni come la Cina, flagellata dalla desertificazione.

Le conseguenze ambientali dell’esplosione demografica non si esauriscono nel consumo di risorse naturali (acqua, suolo, biodiversità) ma sono correlate alla quantità di emissioni di gas serra liberata in atmosfera. La crescita dei consumatori, l’inurbamento della popolazione rurale e la rapida diffusione nel pianeta di standard di vita ad alta emissione di gas serra sono le principali tendenze su cui basare le proiezioni sul destino del pianeta.

L’inurbamento è spesso considerato un fenomeno positivo, accompagnato da miglioramenti dell’istruzione, riduzione dei tassi di natalità, dello sfruttamento di risorse naturali. Tuttavia, esso comporta l’adeguamento a standard di vita con alti consumi e il conseguente aumento dell’inquinamento (come osservato nelle megalopoli asiatiche degli ultimi decenni) con ricadute dirette sulla salute dei cittadini. A livello globale, le emissioni domestiche rappresentano oltre il 60% del totale; un ulteriore 14.5% delle emissioni di CO2 proviene dagli allevamenti, i quali riforniscono principalmente le tavole di europei e nordamericani.

Alcuni ricercatori sono perfino arrivati a stimare “il costo” ambientale di ogni figlio: negli Stati Uniti, ogni fiocco appeso alla porta equivale a 9.441 t.e. di CO2, il 5,4% in più rispetto a quanto avrebbe emesso la donna se nella sua vita avesse deciso di non procreare.

Ma senza le nuove generazioni, che futuro avrebbe la Terra?