La particella di zio – parte seconda

Se in qualche cataclisma andassero perdute tutte le conoscenze scientifiche, e una sola frase potesse essere tramandata alle generazioni successive, quale enunciato conterrebbe la maggiore informazione nel minor numero di parole? Io credo si tratti dell’ipotesi atomica, cioè che tutte le cose sono fatte di atomi, piccole particelle in perpetuo movimento che si attraggono a breve distanza, ma si respingono se pressate l’una contro l’altra.

(Richard Feynman – Sei pezzi facili)

Il premio Nobel per la fisica Richard Feynman (1918 – 1988), all’inizio delle sue “Lectures”, lezioni di fisica tenute nel 1961 e 1962 agli studenti del primo e secondo anno del Caltech (California Institute of Technology), spiega com’è fatto un atomo. E lo fa in un modo così semplice che chiunque (anche tu, Andrea!) gli può stare dietro. Vi consiglio di leggerlo.

Abbiamo visto nel precedente brano (La particella di zio – parte prima) quali siano i mattoni principali che costituiscono gli atomi. Più atomi formano le molecole, mentre gli atomi sono a loro volta formati da costituenti subatomici quali i protoni, con carica positiva, i neutroni, con carica neutra (che formano il nucleo) e gli elettroni, con carica negativa (che “girano” intorno al nucleo).

Senza addentrarmi troppo nelle descrizioni chimiche e fisiche, le definizioni che ho appena scritto potevano andare bene all’inizio, nella fase embrionale della cosiddetta “teoria atomica”. Man mano che la scienza progrediva, le definizioni e le scoperte andavano a migliorare il modello.

Come abbiamo già detto, Rutherford fu il primo a descrivere l’atomo in maniera abbastanza vicina alla realtà: propose un modello di atomo in cui quasi tutta la massa dell’atomo fosse concentrata in una porzione molto piccola, il nucleo (carico positivamente) e gli elettroni gli ruotassero attorno così come i pianeti ruotano attorno al Sole (modello planetario). Era quasi giusto, sia perché nel suo modello atomico non comparivano i neutroni, successivamente scoperti da Chadwick nel 1932, sia perché il modello non teneva conto delle piccole discrepanze tra teoria ed osservazioni successive.

Grazie al fatto che si faceva strada la teoria quantistica, nel 1913 Niels Bohr propose una modifica concettuale al modello di Rutherford. Pur accettandone l’idea di modello planetario, postulò che gli elettroni avessero a disposizione orbite fisse, dette anche “orbite quantizzate”, queste orbite possedevano un’energia quantizzata nelle quali gli elettroni non emettevano né assorbivano energia: in particolare, un elettrone emetteva o assorbiva energia sotto forma di onde elettromagnetiche solo se effettuava una transizione da un’orbita all’altra, e quindi passava ad uno stato a energia minore o maggiore.

Questo era il modo migliore per spiegare come mai gli elettroni, se giravano intorno al nucleo, non ne venissero fatalmente attratti.

Ciò nonostante, il modello di Bohr si basava ancora su postulati e soprattutto funzionava bene solo per l’idrogeno: tutto ciò, alla luce anche del principio di indeterminazione introdotto da Werner Karl Heisenberg nel 1927, convinse la comunità scientifica che fosse impossibile descrivere esattamente il moto degli elettroni attorno al nucleo, motivo per cui ai modelli deterministici fino ad allora proposti si preferì ricercare un modello probabilistico, che descrivesse con buona approssimazione qualsiasi atomo.

Quindi si passò da un modello planetario, quello di Rutherford, ad uno ad orbite fisse, quello di Bohr, ad uno impossibile da descrivere visivamente.

Fu abbandonato il concetto di orbita e fu introdotto il concetto di orbitale. Secondo la meccanica quantistica non ha più senso infatti parlare di traiettoria di una particella: da ciò discende che non si può neanche definire con certezza dove un elettrone si trova in un dato momento. Ciò che è possibile conoscere è la probabilità di trovare l’elettrone in un certo punto dello spazio in un dato istante di tempo. Un orbitale quindi non è una traiettoria su cui un elettrone (secondo le idee della fisica classica) può muoversi, bensì una porzione di spazio intorno al nucleo definita da una superficie di equiprobabilità, ossia entro la quale c’è il 95% della probabilità che un elettrone vi si trovi.

A quel punto nacque la fisica delle particelle. E si scoprì che le particelle erano ben più di tre. Ma facciamo un passo indietro.

Dmitrij Ivanovič Mendeleev (1834 – 1907) fu un chimico russo. Nel 1868 iniziò a scrivere il suo libro, “Princìpi di chimica”. Il suo progetto prevedeva la sistematizzazione di tutte le informazioni dei 63 elementi chimici allora noti. Lo scienziato russo preparò 63 carte, una per ciascun elemento, sulle quali dettagliò le caratteristiche di ognuno. Ordinando le carte, secondo il peso atomico crescente, si accorse che le proprietà chimiche degli elementi si ripetevano periodicamente. Sistemò i 63 elementi conosciuti nella sua tavola e lasciò tre spazi vuoti per gli elementi ancora sconosciuti.

Che cos’è il peso atomico? Senza entrare in tecnicismi, il peso atomico è legato al numero totale di neutroni e protoni presenti nel nucleo. Il peso reale è leggermente inferiore alla somma dei pesi dei differenti componenti perché protoni e neutroni hanno massa diversa (anche se solo del 2‰) e perché parte della massa delle particelle costituenti il nucleo viene ceduta sotto forma di energia di legame nella fase di nucleosintesi, riducendo il peso totale con un meccanismo noto come difetto di massa. Il peso degli elettroni modifica solo leggermente il totale, perché la massa di un elettrone è pari a 1⁄1836 quella di un protone, se considerati entrambi a riposo.

Senza che Mendeleev lo sapesse, pochi anni prima avevano già tentato l’impresa Lothar Meyer (1864) e John Newlands (1865), le cui tavole non consentivano però la previsione di nuovi elementi ancora non scoperti. In più, nei casi in cui le proprietà di un elemento comportavano il suo inserimento in una casella diversa da quella corrispondente al suo peso atomico, Mendeleev coraggiosamente cambiava l’ordine, sostenendo che le proprietà sono più importanti del peso atomico.

Per esempio, il tellurio, con un peso atomico di 127,61, dovrebbe venire dopo lo iodio, che ha peso atomico 126,91, seguendo il criterio dei pesi atomici; mettendo invece il tellurio prima dello iodio, esso risulta sotto al selenio, a cui somiglia molto, mentre lo iodio in tal modo risulta sotto al bromo, suo parente stretto.

Infine, ed è la cosa più importante, là dove Mendeleev non trovava altro modo per far funzionare le cose, non esitò a lasciare dei posti vuoti nella tavola, annunciando, con quella che apparve una sicumera inaudita, che si sarebbero in futuro scoperti gli elementi che avrebbero riempito le caselle vuote. E si spinse ancora oltre. Per tre di tali buchi descrisse gli elementi che dovevano riempirli, utilizzando come guida le proprietà degli elementi soprastanti e sottostanti nella tabella. E qui Mendeleev ebbe un colpo di fortuna. Tutti e tre gli elementi da lui previsti furono scoperti mentre era ancora in vita, consentendogli di assistere al trionfo del suo sistema.

Dopo la scoperta dei raggi X, venne alla luce che proprio tramite quelli era possibile distinguere gli elementi: nel 1914, il giovane fisico inglese Henry Gwyn-Jeffreys Moseley determinò le lunghezze d’onda dei raggi X caratteristici prodotti da vari metalli, arrivando all’importante scoperta che la lunghezza d’onda diminuiva con regolarità man mano che si procedeva nella tavola periodica. I chimici numerarono così gli elementi da 1 (idrogeno) a 92 (uranio). Risultò poi che i “numeri atomici” così ottenuti erano importanti dal punto di vista della struttura interna degli atomi, ben più di quanto non lo fossero i pesi atomici. Per esempio, i dati forniti dai raggi X mostrarono che Mendeleev aveva avuto ragione nel porre il tellurio (numero atomico 52) prima dello iodio (numero atomico 53), nonostante il maggior peso atomico del primo.

Senza tirarla troppo per le lunghe, ci sono attualmente 118 elementi noti, alcuni stabili, altri instabili, alcuni esistenti in natura, altri creati in laboratorio. Ma ci sono due cose da tenere a mente. Intanto, che tutta la materia è formata da alcuni di quei 118 elementi; poi, che il funzionamento degli stessi ci fornisce uno strumento essenziale per effettuare tante altre scoperte, sia teoriche sia pratiche. E gli scienziati non si sono fatti pregare.

Infatti negli anni cinquanta e sessanta si svilupparono macchine in grado di produrre e rivelare un’incredibile varietà di particelle. Si faceva riferimento a queste come allo “zoo delle particelle”. Questo termine venne abbandonato dopo la formulazione del modello standard, durante gli anni settanta, nel quale questo grande numero di particelle venne spiegato in termini della combinazione di un numero (relativamente) piccolo di particelle fondamentali. Infatti fu necessario mettere un po’ d’ordine al caos che si stava creando.

Il principio fisico per lo studio di nuove particelle è quello semplice degli urti ad elevata energia: facendo collidere tra di loro particelle ad alta energia cinetica, ovvero a velocità prossime alla velocità della luce, il prodotto può essere, per l’equivalenza tra massa ed energia, una nuova particella a massa superiore che eventualmente decade in altre particelle figlie. Dall’analisi di tali decadimenti è possibile risalire alle caratteristiche della particella madre.

L’Italia ha un ruolo di primo piano nella fisica delle particelle, partecipando con posizioni di responsabilità importanti alla realizzazione ed alle ricerche che si effettuano nei più importanti progetti. Le ricerche in questo settore sono finanziate in Italia in gran parte dall’INFN (Istituto Nazionale di Fisica Nucleare) che collabora con decine di dipartimenti di fisica delle diverse università italiane.

Nel 1984 l’italiano Carlo Rubbia ha ricevuto Premio Nobel per la fisica per la conferma sperimentale dei Bosoni W± e Z al CERN di Ginevra.

L’Italia è uno stato membro fondatore del CERN, e per tre volte ha avuto la direzione generale del laboratorio (Carlo Rubbia, dal 1989 al 1993, Luciano Maiani dal 1999 al 2003, Fabiola Giannotti dal 2015).

Prima di andare avanti, rispondo a quello che ha pensato: “Sì, ok, ma a che serve?” (tanto lo so che c’è).

Le spese pubbliche per finanziare i grandi progetti di ricerca hanno spesso avuto ricadute tecnologiche positive di rilievo anche in settori diversi da quelli che le attività di ricerca hanno come finalità principale. Tra le applicazioni che sono nate dall’ambiente di ricerca della fisica delle particelle vi sono:

  • il World Wide Web, nato al CERN per migliorare gli strumenti di comunicazione scientifica, il protocollo HTTP ed il linguaggio HTML;
  • rivelatori di particelle utilizzati per diagnostica medica;
  • l’adroterapia, che dovrebbe curare il cancro attraverso l’uso di acceleratori. Grazie alla possibilità di controllare con precisione l’energia e la localizzazione delle particelle accelerate, è possibile depositare dosi di radiazione in maniera controllata per distruggere le cellule cancerose senza danneggiare i tessuti circostanti;
  • la tomografia ad emissione di positroni, o PET, uno strumento di diagnostica medica che utilizza l’antimateria.

Sistemati gli agnostici con i diagnostici, torniamo a noi.

Avevamo spiegato che esistono tre particelle, protone, neutrone ed elettrone. Grazie agli acceleratori di particelle, sono state scoperte molte altre particelle, anche se a volte è stato necessario aspettare anni per vedere il risultato delle teorie.

Ad un certo punto si comprese che all’interno dell’atomo vi erano altre particelle. Becquerel, quando aveva scoperto la radioattività, si era reso conto che, mentre una parte della radiazione emessa dalle sostanze radioattive era costituita da elettroni, un’altra parte non lo era. I Curie in Francia ed Ernest Rutherford in Inghilterra avevano identificato una radiazione che era meno penetrante di un fascio di elettroni; Rutherford la denominò “raggi α (alfa)”, e chiamò “raggi β (beta)” l’emissione formata da elettroni; pertanto gli elettroni, quando entrano a far parte di una radiazione, sono denominati “particelle beta”. I raggi alfa risultarono anch’essi costituiti di particelle che furono chiamate “particelle alfa”. Nello stesso periodo il chimico francese Paul Ulrich Villard scoprì una terza forma di emissione radioattiva, cui fu dato il nome di “raggi γ (gamma)”. Alfa, beta e gamma sono le prime tre lettere dell’alfabeto greco.

Per primo Rutherford, seguito da tutti gli altri scienziati dell’epoca, con strumenti via via sempre più sofisticati, iniziò a bombardare gli elementi con le particelle alfa.

Quando bombardò i nuclei di azoto con le particelle alfa in una delle originarie camere a nebbia di Wilson, la particella alfa lasciava una traccia che terminava improvvisamente con una biforcazione, evidentemente a causa di una collisione con un nucleo di azoto. Uno dei due rami era relativamente sottile, e rappresentava un protone sbalzato via. L’altro ramo, una traccia corta e grossa, rappresentava ciò che restava del nucleo di azoto che aveva subìto la collisione. Ma della particella alfa stessa non vi era alcuna traccia. Sembrava che dovesse esser stata assorbita dal nucleo di azoto, supposizione che fu in seguito confermata dal fisico inglese Patrick Maynard Stuart Blackett; si dice che questi abbia effettuato più di ventimila fotografie per arrivare a mettere insieme otto di tali collisioni (certamente un esempio di pazienza, fede e tenacia sovrumane). Per questo e altri lavori nel campo della fisica nucleare, Blackett ricevette il premio Nobel per la fisica nel 1948.

A quel punto era possibile ricostruire cosa fosse successo al nucleo di azoto: catturando una particella alfa, il suo numero di massa saliva da 14 a 18 e la sua carica positiva da 7 a 9; dato però che la combinazione espelleva immediatamente un protone, il numero di massa ridiscendeva a 17 e la carica positiva a 8. Ora, l’elemento di carica positiva 8 è l’ossigeno, mentre il numero di massa 17 individua l’isotopo dell’ossigeno 17. In altri termini, Rutherford, nel 1919, aveva trasmutato l’azoto in ossigeno. Si trattava della prima trasmutazione artificiale della storia umana. Il sogno degli alchimisti era stato realizzato, anche se in una maniera che essi non avrebbero potuto né prevedere né attuare con le loro tecniche primitive.

Come proiettili, le particelle alfa ottenute dalle sorgenti radioattive presentavano dei limiti: non avevano certo abbastanza energia per riuscire a penetrare nei nuclei degli elementi più pesanti, le cui elevate cariche positive esercitano una forte repulsione sulle particelle cariche positivamente. Ma la fortezza del nucleo era stata violata, e attacchi più energici sarebbero seguiti.

La prossima volta vedremo la famiglia delle particelle fino ad arrivare all’ultimogenita, la particella Xi.

6 pensieri su “La particella di zio – parte seconda

  1. Hehe, Francesco, mi pensi sempre!
    In effetti durante l’anno scolastico del figlio molte delle nozioni da te elencate ho avuto modo di leggerle, a volte ‘anche’ di capirle, qualcuna me la ricordavo bene come i modelli di atomo di Rutherford o quello bohriano. Mio figlio in scienze annaspava abbastanza, ma poi ha portato a casa a fine anno un bel 7.
    Anche gli esperimenti di collisione erano citati nel libro di testo (pure quello su lamina d’oro della prima parte del tuo scritto), ed in effetti l’argomento è interessante anche se quando si complica faccio fatica a starci dietro.

    Liked by 1 persona

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...