La particella di zio – parte seconda

Se in qualche cataclisma andassero perdute tutte le conoscenze scientifiche, e una sola frase potesse essere tramandata alle generazioni successive, quale enunciato conterrebbe la maggiore informazione nel minor numero di parole? Io credo si tratti dell’ipotesi atomica, cioè che tutte le cose sono fatte di atomi, piccole particelle in perpetuo movimento che si attraggono a breve distanza, ma si respingono se pressate l’una contro l’altra.

(Richard Feynman – Sei pezzi facili)

Il premio Nobel per la fisica Richard Feynman (1918 – 1988), all’inizio delle sue “Lectures”, lezioni di fisica tenute nel 1961 e 1962 agli studenti del primo e secondo anno del Caltech (California Institute of Technology), spiega com’è fatto un atomo. E lo fa in un modo così semplice che chiunque (anche tu, Andrea!) gli può stare dietro. Vi consiglio di leggerlo.

Abbiamo visto nel precedente brano (La particella di zio – parte prima) quali siano i mattoni principali che costituiscono gli atomi. Più atomi formano le molecole, mentre gli atomi sono a loro volta formati da costituenti subatomici quali i protoni, con carica positiva, i neutroni, con carica neutra (che formano il nucleo) e gli elettroni, con carica negativa (che “girano” intorno al nucleo).

Senza addentrarmi troppo nelle descrizioni chimiche e fisiche, le definizioni che ho appena scritto potevano andare bene all’inizio, nella fase embrionale della cosiddetta “teoria atomica”. Man mano che la scienza progrediva, le definizioni e le scoperte andavano a migliorare il modello.

Come abbiamo già detto, Rutherford fu il primo a descrivere l’atomo in maniera abbastanza vicina alla realtà: propose un modello di atomo in cui quasi tutta la massa dell’atomo fosse concentrata in una porzione molto piccola, il nucleo (carico positivamente) e gli elettroni gli ruotassero attorno così come i pianeti ruotano attorno al Sole (modello planetario). Era quasi giusto, sia perché nel suo modello atomico non comparivano i neutroni, successivamente scoperti da Chadwick nel 1932, sia perché il modello non teneva conto delle piccole discrepanze tra teoria ed osservazioni successive.

Grazie al fatto che si faceva strada la teoria quantistica, nel 1913 Niels Bohr propose una modifica concettuale al modello di Rutherford. Pur accettandone l’idea di modello planetario, postulò che gli elettroni avessero a disposizione orbite fisse, dette anche “orbite quantizzate”, queste orbite possedevano un’energia quantizzata nelle quali gli elettroni non emettevano né assorbivano energia: in particolare, un elettrone emetteva o assorbiva energia sotto forma di onde elettromagnetiche solo se effettuava una transizione da un’orbita all’altra, e quindi passava ad uno stato a energia minore o maggiore.

Questo era il modo migliore per spiegare come mai gli elettroni, se giravano intorno al nucleo, non ne venissero fatalmente attratti.

Ciò nonostante, il modello di Bohr si basava ancora su postulati e soprattutto funzionava bene solo per l’idrogeno: tutto ciò, alla luce anche del principio di indeterminazione introdotto da Werner Karl Heisenberg nel 1927, convinse la comunità scientifica che fosse impossibile descrivere esattamente il moto degli elettroni attorno al nucleo, motivo per cui ai modelli deterministici fino ad allora proposti si preferì ricercare un modello probabilistico, che descrivesse con buona approssimazione qualsiasi atomo.

Quindi si passò da un modello planetario, quello di Rutherford, ad uno ad orbite fisse, quello di Bohr, ad uno impossibile da descrivere visivamente.

Fu abbandonato il concetto di orbita e fu introdotto il concetto di orbitale. Secondo la meccanica quantistica non ha più senso infatti parlare di traiettoria di una particella: da ciò discende che non si può neanche definire con certezza dove un elettrone si trova in un dato momento. Ciò che è possibile conoscere è la probabilità di trovare l’elettrone in un certo punto dello spazio in un dato istante di tempo. Un orbitale quindi non è una traiettoria su cui un elettrone (secondo le idee della fisica classica) può muoversi, bensì una porzione di spazio intorno al nucleo definita da una superficie di equiprobabilità, ossia entro la quale c’è il 95% della probabilità che un elettrone vi si trovi.

A quel punto nacque la fisica delle particelle. E si scoprì che le particelle erano ben più di tre. Ma facciamo un passo indietro.

Dmitrij Ivanovič Mendeleev (1834 – 1907) fu un chimico russo. Nel 1868 iniziò a scrivere il suo libro, “Princìpi di chimica”. Il suo progetto prevedeva la sistematizzazione di tutte le informazioni dei 63 elementi chimici allora noti. Lo scienziato russo preparò 63 carte, una per ciascun elemento, sulle quali dettagliò le caratteristiche di ognuno. Ordinando le carte, secondo il peso atomico crescente, si accorse che le proprietà chimiche degli elementi si ripetevano periodicamente. Sistemò i 63 elementi conosciuti nella sua tavola e lasciò tre spazi vuoti per gli elementi ancora sconosciuti.

Che cos’è il peso atomico? Senza entrare in tecnicismi, il peso atomico è legato al numero totale di neutroni e protoni presenti nel nucleo. Il peso reale è leggermente inferiore alla somma dei pesi dei differenti componenti perché protoni e neutroni hanno massa diversa (anche se solo del 2‰) e perché parte della massa delle particelle costituenti il nucleo viene ceduta sotto forma di energia di legame nella fase di nucleosintesi, riducendo il peso totale con un meccanismo noto come difetto di massa. Il peso degli elettroni modifica solo leggermente il totale, perché la massa di un elettrone è pari a 1⁄1836 quella di un protone, se considerati entrambi a riposo.

Senza che Mendeleev lo sapesse, pochi anni prima avevano già tentato l’impresa Lothar Meyer (1864) e John Newlands (1865), le cui tavole non consentivano però la previsione di nuovi elementi ancora non scoperti. In più, nei casi in cui le proprietà di un elemento comportavano il suo inserimento in una casella diversa da quella corrispondente al suo peso atomico, Mendeleev coraggiosamente cambiava l’ordine, sostenendo che le proprietà sono più importanti del peso atomico.

Per esempio, il tellurio, con un peso atomico di 127,61, dovrebbe venire dopo lo iodio, che ha peso atomico 126,91, seguendo il criterio dei pesi atomici; mettendo invece il tellurio prima dello iodio, esso risulta sotto al selenio, a cui somiglia molto, mentre lo iodio in tal modo risulta sotto al bromo, suo parente stretto.

Infine, ed è la cosa più importante, là dove Mendeleev non trovava altro modo per far funzionare le cose, non esitò a lasciare dei posti vuoti nella tavola, annunciando, con quella che apparve una sicumera inaudita, che si sarebbero in futuro scoperti gli elementi che avrebbero riempito le caselle vuote. E si spinse ancora oltre. Per tre di tali buchi descrisse gli elementi che dovevano riempirli, utilizzando come guida le proprietà degli elementi soprastanti e sottostanti nella tabella. E qui Mendeleev ebbe un colpo di fortuna. Tutti e tre gli elementi da lui previsti furono scoperti mentre era ancora in vita, consentendogli di assistere al trionfo del suo sistema.

Dopo la scoperta dei raggi X, venne alla luce che proprio tramite quelli era possibile distinguere gli elementi: nel 1914, il giovane fisico inglese Henry Gwyn-Jeffreys Moseley determinò le lunghezze d’onda dei raggi X caratteristici prodotti da vari metalli, arrivando all’importante scoperta che la lunghezza d’onda diminuiva con regolarità man mano che si procedeva nella tavola periodica. I chimici numerarono così gli elementi da 1 (idrogeno) a 92 (uranio). Risultò poi che i “numeri atomici” così ottenuti erano importanti dal punto di vista della struttura interna degli atomi, ben più di quanto non lo fossero i pesi atomici. Per esempio, i dati forniti dai raggi X mostrarono che Mendeleev aveva avuto ragione nel porre il tellurio (numero atomico 52) prima dello iodio (numero atomico 53), nonostante il maggior peso atomico del primo.

Senza tirarla troppo per le lunghe, ci sono attualmente 118 elementi noti, alcuni stabili, altri instabili, alcuni esistenti in natura, altri creati in laboratorio. Ma ci sono due cose da tenere a mente. Intanto, che tutta la materia è formata da alcuni di quei 118 elementi; poi, che il funzionamento degli stessi ci fornisce uno strumento essenziale per effettuare tante altre scoperte, sia teoriche sia pratiche. E gli scienziati non si sono fatti pregare.

Infatti negli anni cinquanta e sessanta si svilupparono macchine in grado di produrre e rivelare un’incredibile varietà di particelle. Si faceva riferimento a queste come allo “zoo delle particelle”. Questo termine venne abbandonato dopo la formulazione del modello standard, durante gli anni settanta, nel quale questo grande numero di particelle venne spiegato in termini della combinazione di un numero (relativamente) piccolo di particelle fondamentali. Infatti fu necessario mettere un po’ d’ordine al caos che si stava creando.

Il principio fisico per lo studio di nuove particelle è quello semplice degli urti ad elevata energia: facendo collidere tra di loro particelle ad alta energia cinetica, ovvero a velocità prossime alla velocità della luce, il prodotto può essere, per l’equivalenza tra massa ed energia, una nuova particella a massa superiore che eventualmente decade in altre particelle figlie. Dall’analisi di tali decadimenti è possibile risalire alle caratteristiche della particella madre.

L’Italia ha un ruolo di primo piano nella fisica delle particelle, partecipando con posizioni di responsabilità importanti alla realizzazione ed alle ricerche che si effettuano nei più importanti progetti. Le ricerche in questo settore sono finanziate in Italia in gran parte dall’INFN (Istituto Nazionale di Fisica Nucleare) che collabora con decine di dipartimenti di fisica delle diverse università italiane.

Nel 1984 l’italiano Carlo Rubbia ha ricevuto Premio Nobel per la fisica per la conferma sperimentale dei Bosoni W± e Z al CERN di Ginevra.

L’Italia è uno stato membro fondatore del CERN, e per tre volte ha avuto la direzione generale del laboratorio (Carlo Rubbia, dal 1989 al 1993, Luciano Maiani dal 1999 al 2003, Fabiola Giannotti dal 2015).

Prima di andare avanti, rispondo a quello che ha pensato: “Sì, ok, ma a che serve?” (tanto lo so che c’è).

Le spese pubbliche per finanziare i grandi progetti di ricerca hanno spesso avuto ricadute tecnologiche positive di rilievo anche in settori diversi da quelli che le attività di ricerca hanno come finalità principale. Tra le applicazioni che sono nate dall’ambiente di ricerca della fisica delle particelle vi sono:

  • il World Wide Web, nato al CERN per migliorare gli strumenti di comunicazione scientifica, il protocollo HTTP ed il linguaggio HTML;
  • rivelatori di particelle utilizzati per diagnostica medica;
  • l’adroterapia, che dovrebbe curare il cancro attraverso l’uso di acceleratori. Grazie alla possibilità di controllare con precisione l’energia e la localizzazione delle particelle accelerate, è possibile depositare dosi di radiazione in maniera controllata per distruggere le cellule cancerose senza danneggiare i tessuti circostanti;
  • la tomografia ad emissione di positroni, o PET, uno strumento di diagnostica medica che utilizza l’antimateria.

Sistemati gli agnostici con i diagnostici, torniamo a noi.

Avevamo spiegato che esistono tre particelle, protone, neutrone ed elettrone. Grazie agli acceleratori di particelle, sono state scoperte molte altre particelle, anche se a volte è stato necessario aspettare anni per vedere il risultato delle teorie.

Ad un certo punto si comprese che all’interno dell’atomo vi erano altre particelle. Becquerel, quando aveva scoperto la radioattività, si era reso conto che, mentre una parte della radiazione emessa dalle sostanze radioattive era costituita da elettroni, un’altra parte non lo era. I Curie in Francia ed Ernest Rutherford in Inghilterra avevano identificato una radiazione che era meno penetrante di un fascio di elettroni; Rutherford la denominò “raggi α (alfa)”, e chiamò “raggi β (beta)” l’emissione formata da elettroni; pertanto gli elettroni, quando entrano a far parte di una radiazione, sono denominati “particelle beta”. I raggi alfa risultarono anch’essi costituiti di particelle che furono chiamate “particelle alfa”. Nello stesso periodo il chimico francese Paul Ulrich Villard scoprì una terza forma di emissione radioattiva, cui fu dato il nome di “raggi γ (gamma)”. Alfa, beta e gamma sono le prime tre lettere dell’alfabeto greco.

Per primo Rutherford, seguito da tutti gli altri scienziati dell’epoca, con strumenti via via sempre più sofisticati, iniziò a bombardare gli elementi con le particelle alfa.

Quando bombardò i nuclei di azoto con le particelle alfa in una delle originarie camere a nebbia di Wilson, la particella alfa lasciava una traccia che terminava improvvisamente con una biforcazione, evidentemente a causa di una collisione con un nucleo di azoto. Uno dei due rami era relativamente sottile, e rappresentava un protone sbalzato via. L’altro ramo, una traccia corta e grossa, rappresentava ciò che restava del nucleo di azoto che aveva subìto la collisione. Ma della particella alfa stessa non vi era alcuna traccia. Sembrava che dovesse esser stata assorbita dal nucleo di azoto, supposizione che fu in seguito confermata dal fisico inglese Patrick Maynard Stuart Blackett; si dice che questi abbia effettuato più di ventimila fotografie per arrivare a mettere insieme otto di tali collisioni (certamente un esempio di pazienza, fede e tenacia sovrumane). Per questo e altri lavori nel campo della fisica nucleare, Blackett ricevette il premio Nobel per la fisica nel 1948.

A quel punto era possibile ricostruire cosa fosse successo al nucleo di azoto: catturando una particella alfa, il suo numero di massa saliva da 14 a 18 e la sua carica positiva da 7 a 9; dato però che la combinazione espelleva immediatamente un protone, il numero di massa ridiscendeva a 17 e la carica positiva a 8. Ora, l’elemento di carica positiva 8 è l’ossigeno, mentre il numero di massa 17 individua l’isotopo dell’ossigeno 17. In altri termini, Rutherford, nel 1919, aveva trasmutato l’azoto in ossigeno. Si trattava della prima trasmutazione artificiale della storia umana. Il sogno degli alchimisti era stato realizzato, anche se in una maniera che essi non avrebbero potuto né prevedere né attuare con le loro tecniche primitive.

Come proiettili, le particelle alfa ottenute dalle sorgenti radioattive presentavano dei limiti: non avevano certo abbastanza energia per riuscire a penetrare nei nuclei degli elementi più pesanti, le cui elevate cariche positive esercitano una forte repulsione sulle particelle cariche positivamente. Ma la fortezza del nucleo era stata violata, e attacchi più energici sarebbero seguiti.

La prossima volta vedremo la famiglia delle particelle fino ad arrivare all’ultimogenita, la particella Xi.

La particella di zio – parte prima

Gregory (detective di Scotland Yard): “C’è qualcos’altro su cui vuole attirare la mia attenzione?”

 Holmes: “Sul curioso incidente del cane, quella notte”.

 Gregory: “Ma il cane non ha fatto nulla quella notte”.

 Holmes: “Questo appunto è il curioso incidente”

“Barbaglio d’argento”, Sir Arthur Conan Doyle, 1892

 

Come spesso accade quando si scrive, ben difficile risulta descrivere ciò che non è visibile agli occhi. Ma è anche vero che non tutto ciò che non è visibile agli occhi dell’uomo deve essere preso come qualcosa di inesistente.

Pensate se doveste descrivere il wifi a uno che non sa cosa sia neanche un computer. O un atomo a un lettore di questo blog (scherzo, l’ho già fatto e sono sicuro che tutti i lettori lo abbiano ben compreso nonostante le mie pessime spiegazioni).

Immagino quanto sia stato difficile per certi scienziati comprendere (o far comprendere, dipende da quale lato del tavolo fossero) la struttura atomica. Soprattutto dopo che Marx Karl Ernst Ludwig Planck (1858 – 1947), Niels Henrik David Bohr (1885 – 1962), Albert Einstein (1879 – 1955), Peter Debye (1884 – 1966) e Arnold Johannes Wilhelm Sommerfeld (1868 – 1951) ebbero le idee e le intuizioni che portarono loro e i loro discepoli ad elaborare la teoria della meccanica quantistica.

I fondatori della teoria quantistica sostanzialmente costrinsero gli scienziati a dividere il mondo in due parti: al di sopra, vi era la matematica classica con la quale era possibile descrivere i processi fisici empiricamente osservabili; sotto, vi era la matematica quantistica che descriveva un regno completamente al di fuori del determinismo fisico.

In generale, si comprese che lo stato evoluto del sistema “di sotto“ non poteva essere abbinato a nessuna descrizione classica delle proprietà visibili all’osservatore e gli scienziati avrebbero dovuto scegliere particolari proprietà del sistema quantistico, sviluppando un modello per vedere i suoi effetti sui processi fisici “di sopra”.

Ora, se è difficile per uno che lo fa di mestiere, pensate quanto lo sia per uno come me, che ha nella fisica delle particelle un interesse poco più che hobbistico! Ma chi mi conosce lo sa, quando mi intestardisco su una cosa, in genere mi piace portarla a termine.

È di pochi giorni fa la notizia della scoperta al Cern della particella Xi: inseguita da decenni, potrà aiutare a studiare la ‘colla’ che tiene unita la materia, ossia per capire una delle quattro forze fondamentali della natura: la forza forte. La scoperta, annunciata nella conferenza della Società Europea di Fisica in corso a Venezia e in via di pubblicazione sulla rivista Physical Review Letters, è avvenuta grazie all’acceleratore più grande del mondo, il Large Hadron Collider (Lhc).

Ma facciamo un passo indietro.

I greci sapevano che la materia non era divisibile all’infinito. Ipotizzarono che, dividendo un pezzo di materia in pezzi sempre più piccoli, alla fine ci fossero dei frammenti che non avrebbero potuto essere divisi e chiamarono questi frammenti atomi (da ἄτομος – àtomos -, indivisibile, unione di ἄ – a – [alfa privativo] + τέμνειν – témnein – [tagliare]).

Fu però, per vari motivi, necessario arrivare al 1800 perché la teoria atomica fosse quanto meno presa in considerazione (sporadicamente, nella storia, altri l’avevano esaltata, ma erano stati, al loro tempo, bellamente ignorati).

Cerchiamo di capire che cosa sono gli atomi e quali sono le particelle che li compongono.

Tutto ebbe inizio con gli studi sull’elettricità. Michael Faraday, fisico e chimico britannico, tentò tutti gli esperimenti con l’elettricità che gli vennero in mente, tra cui uno che consisteva nel far passare una scarica elettrica nel vuoto. Non riuscì, però, a ottenere un vuoto abbastanza spinto per i suoi scopi. Nel 1854, un maestro vetraio tedesco, Heinrich Geissler, costruì un tubo di vetro in cui erano saldati degli elettrodi metallici e in cui, con una pompa da lui stesso inventata, era possibile raggiungere un vuoto molto spinto. Quando gli sperimentatori riuscirono a ottenere scariche elettriche nel “tubo di Geissler”, notarono che si manifestava una luminescenza verde sulla parete del tubo opposta all’elettrodo negativo. Nel 1876 il fisico tedesco Eugen Goldstein giunse alla conclusione che tale luminescenza verde dovesse dipendere dall’urto sul vetro di una qualche radiazione originata nell’elettrodo negativo, che Faraday aveva denominato “catodo”.

Goldstein pertanto chiamò queste radiazioni “raggi catodici”. Si trattava di una forma di radiazione elettromagnetica? Così riteneva Goldstein, ma il fisico inglese William Crookes e alcuni altri sostennero che si trattava piuttosto di un fascio di qualche tipo di particelle. Crookes progettò alcune versioni migliorate del tubo di Geissler (chiamate poi “tubi di Crookes”), con cui poté dimostrare che i raggi venivano deflessi dall’azione di un magnete. Ciò faceva pensare che fossero costituiti di particelle elettricamente cariche.

Nel 1897, il fisico Joseph John Thomson chiarì la questione al di là di ogni dubbio, dimostrando che i raggi catodici potevano essere deviati anche dalle cariche elettriche. Cosa erano, dunque, queste “particelle” catodiche? Le uniche particelle aventi carica negativa note a quell’epoca erano gli ioni negativi. Gli esperimenti mostrarono però che le particelle che costituivano i raggi catodici non potevano essere ioni, perché subivano una così forte deviazione da parte del campo magnetico da far pensare che avessero una carica elettrica inconcepibilmente alta, oppure che fossero particelle estremamente leggere, con una massa inferiore a un millesimo di quella dell’atomo di idrogeno.

Risultò che quest’ultima interpretazione si adattava meglio ai fatti. I fisici avevano già avanzato l’ipotesi che la corrente elettrica fosse trasportata da particelle, e così queste particelle catodiche furono accettate come le costituenti ultime dell’elettricità. Vennero chiamate “elettroni”, nome suggerito nel 1891 dal fisico irlandese George Johnstone Stoney. In seguito si stabilì che l’elettrone aveva una massa pari a 1 su 1837 di quella dell’atomo di idrogeno (Thomson ricevette il premio Nobel per la fisica nel 1906 per la scoperta dell’elettrone).

La scoperta dell’elettrone fece pensare subito che esso potesse essere una particella costitutiva dell’atomo: gli atomi non erano quelle unità ultime e indivisibili della materia che i greci avevano ipotizzato.

Nel 1886 sempre Goldstein, usando un tubo a raggi catodici con un catodo perforato, aveva scoperto una nuova radiazione che passava attraverso i fori del catodo in direzione opposta ai raggi catodici, e l’aveva chiamata “Kanalstrahlen” (raggi canale). Fu proprio questa radiazione, nel 1902, a dare l’opportunità di osservare per la prima volta l’effetto Doppler-Fizeau in una sorgente luminosa terrestre. Il fisico tedesco Johannes Stark collocò uno spettroscopio in posizione tale che i raggi si dirigessero verso di esso, e rese così osservabile lo spostamento verso il violetto. Per questa ricerca gli fu assegnato il premio Nobel per la fisica nel 1919.

Dato che i raggi canale si muovono in direzione opposta a quella dei raggi catodici, che hanno carica negativa, come abbiamo visto, Thomson propose di chiamarli “raggi positivi”. Risultò che le particelle che costituivano i raggi positivi attraversavano facilmente la materia, e pertanto si suppose che il loro volume fosse molto inferiore a quello degli atomi o degli ioni ordinari. Misurando la deviazione subita da tali particelle in un campo magnetico, si giunse alla conclusione che la più piccola di esse aveva carica e massa uguali a quelle dello ione idrogeno, nell’ipotesi che quest’ultimo trasporti la più piccola quantità possibile di carica positiva; se ne dedusse che la particella che costituiva i raggi positivi fosse la particella positiva fondamentale, quindi l’opposto dell’elettrone. Rutherford la denominò ”protone” (dalla parola greca che significa «primo»).

Protone ed elettrone hanno effettivamente cariche elettriche uguali, benché di segno opposto, tuttavia la massa del protone è 1836 volte maggiore di quella dell’elettrone. A questo punto appariva verosimile che un atomo fosse composto di protoni ed elettroni, le cui cariche si controbilanciavano; sembrava anche probabile che i protoni stessero nell’interno dell’atomo, perché non possono essere facilmente staccati da quest’ultimo, com’è invece possibile per gli elettroni. Ora, però, l’interrogativo fondamentale riguardava la struttura formata da queste particelle costitutive dell’atomo.

Fu lo stesso Rutherford a trovare il bandolo della matassa. Tra il 1906 e il 1908 egli seguitò a bombardare con le particelle alfa sottili lamine di metallo (d’oro o di platino, per esempio) per studiarne gli atomi: gran parte dei proiettili attraversavano la lamina senza essere deviati (così come delle pallottole possono passare tra le foglie di un albero indisturbate), ma non tutti. Rutherford aveva collocato dietro al metallo una lastra fotografica che fungeva da bersaglio, e trovò, intorno al suo centro, un’inaspettata rosa di colpi che si erano dispersi; alcune particelle, inoltre, erano rimbalzate all’indietro! Era come se alcune pallottole non fossero semplicemente passate tra le foglie, ma fossero rimbalzate su qualcosa di più solido.

Rutherford giunse alla conclusione che esse avevano colpito qualcosa di simile a un nucleo compatto, che occupava solo una parte molto piccola dell’atomo. A quanto sembrava, la maggior parte del volume dell’atomo doveva essere occupata dagli elettroni. Le particelle alfa “sparate” contro la lamina metallica incontravano perlopiù soltanto elettroni e attraversavano questo velo di particelle leggere senza venirne deviate; ogni tanto, però, poteva accadere che una particella alfa colpisse il nucleo più denso dell’atomo, e venisse deflessa.

Il fatto che ciò accadesse molto raramente mostrava quanto dovessero essere minuscoli i nuclei atomici, visto che una particella che attraversa un foglio di metallo deve incontrare parecchie migliaia di atomi.

Era logico supporre che questo nucleo più compatto fosse fatto di protoni. Rutherford descrisse i protoni come una piccola folla addensata in un minuscolo “nucleo atomico” al centro dell’atomo. In seguito è stato dimostrato che il diametro del nucleo è poco più di 1 su 100 mila di quello dell’atomo.

Questo, dunque, è il modello fondamentale dell’atomo: un nucleo carico positivamente, che occupa uno spazio piccolissimo ma contiene quasi tutta la massa dell’atomo, circondato da una “schiuma” di elettroni che occupa quasi tutto il volume dell’atomo, ma praticamente non contribuisce alla sua massa. Per questa ricerca straordinariamente pionieristica sulla natura ultima della materia Rutherford ricevette il premio Nobel per la chimica nel 1908.

Nel 1930, due fisici tedeschi, Walther Bothe e Herbert Becker, riferirono di aver causato l’emissione da parte del nucleo di una nuova radiazione misteriosa, eccezionalmente penetrante. Tale radiazione era stata ottenuta bombardando atomi di berillio con particelle alfa. L’anno prima, Bothe aveva ideato dei metodi per usare due o più contatori congiuntamente nei “conteggi a coincidenza”. Grazie a essi si potevano individuare eventi nucleari che avvenivano in un milionesimo di secondo. Per questo e altri contributi egli ebbe il premio Nobel per la fisica nel 1954.

Due anni dopo la scoperta di Bothe e Becker, una scoperta analoga fu fatta dai fisici francesi Frédéric e Irène Joliot-Curie. (Irène era la figlia di Pierre e Marie Curie, e Joliot, sposandola, aveva aggiunto al proprio il cognome Curie.) Essi avevano usato la radiazione scoperta di recente, emessa dal berillio, per bombardare la paraffina, una sostanza simile alla cera, composta di idrogeno e carbonio. La radiazione espelleva protoni dalla paraffina. Il fisico inglese James Chadwick pensò subito che la radiazione fosse costituita di particelle. Per determinare le loro dimensioni, bombardò degli atomi di boro con tali particelle e calcolò, in base all’aumento della massa del nuovo nucleo formatosi, che la massa della particella aggiunta al boro sarebbe dovuta essere circa uguale a quella del protone. Eppure tale particella non era osservabile in una camera di Wilson. Chadwick giunse alla conclusione che la particella fosse priva di carica elettrica; infatti in tal caso non avrebbe prodotto ionizzazione e per questa ragione non si sarebbe verificata la condensazione delle goccioline di acqua.

Così Chadwick stabilì che si era in presenza di una particella completamente nuova, che aveva circa la stessa massa del protone, ma era priva di carica, ossia elettricamente neutra. Da tempo era stata presa in considerazione la possibilità che esistesse una simile particella, per la quale era stato anche proposto un nome: “neutrone”. Chadwick accettò tale nome. Per la scoperta del neutrone gli fu conferito il premio Nobel per la fisica nel 1935.

Questi tre, protoni, neutroni ed elettroni, sono gli elementi costituenti l’atomo. Ma possiamo andare più a fondo? Certamente, e la prossima volta vedremo la famiglia delle particelle e capiremo perché la scoperta della particella Xi è così importante.

La dinamica

Tempo fa avevo annunciato in “Introduzione alla fisica” della volontà di occuparmi in maniera più organica e ordinata di fisica, ma dopo un anno ancora non ci sono riuscito. Il tempo libero scarseggia e siccome questo di scrivere è un hobby, mi piacerebbe rimanesse tale (almeno per ora, Marcello, non ti preoccupare).

In tutti i modi, oggi proverò a riprendere da dove avevo interrotto e ricomincio parlando di dinamica.

Fin ad ora ci siamo limitati ad osservare il moto (nel precedente articolo “La cinematica”) e a discuterne varie caratteristiche introducendo quantità come la velocità e l’accelerazione che ci aiuteranno nella comprensione delle cose che seguiranno.

La dinamica è il ramo della meccanica che si occupa dello studio del moto dei corpi e delle sue cause o, in termini più concreti, delle circostanze che lo determinano e lo modificano. Lo studio completo della meccanica comprende anche la statica e la cinematica: la dinamica si differenzia dalla prima che studia le configurazioni di equilibrio meccanico, dalla seconda che studia, in astratto, tutti i moti concepibili ma non si occupa di determinare quali moti possono avvenire in un determinato contesto sperimentale.

Secondo l’intuizione fondamentale di Galileo e Newton, le forze non sono la causa del moto, ma producono una variazione dello stato di moto, ovvero un’accelerazione. Questa intuizione equivale ad affermare la relatività del movimento; un osservatore può determinare il suo stato di quiete o di moto solo relativamente ad altri corpi (o altri osservatori). Per questo è possibile parlare delle cause che variano il moto, ma non delle cause del moto.

Lo studio della dinamica si conduce innanzitutto riferendosi a un’entità astratta, dotata di massa ma con dimensioni trascurabili: il punto materiale. Tutte le leggi riferite al punto materiale possono essere poi estese ai corpi reali (dotati di massa e di dimensioni finite) interpretati come sistemi di punti materiali; se ci si occupa di corpi nei quali le distanze relative tra i punti costituenti il sistema non variano nel tempo, si parla di “dinamica dei corpi rigidi”; in caso contrario si parla di “dinamica dei corpi deformabili”.

Come accennavo, Galileo Galilei (1564 – 1642) ed Isaac Newton (1642 – 1727) furono fautori di una vera e propria rivoluzione. E come avrete notato, l’anno di nascita di Newton è anche l’anno di morte di Galilei. Cosa significa? Assolutamente nulla, ma mi andava di scriverlo…

Prima di Galileo la conoscenza dei fenomeni naturali era essenzialmente legata all’osservazione diretta; da Galileo in poi l’osservazione si integrò con la sperimentazione. Prima di Galileo gli strumenti erano pochi, usati per alcune misure matematiche e astronomiche o più spesso impiegati per soddisfare bisogni quotidiani; da Galileo in poi gli strumenti diventarono ineliminabili ausili per ampliare le conoscenze scientifiche.

Prima di Newton la cultura scientifica non esisteva neppure, perché era ferma alle visioni aristoteliche, cioè che la sfera terrena era composta da 4 elementi (terra, aria, acqua, fuoco) mentre quelle celesti erano fatte di un solo, quinto elemento (l’etere, perfetto ed incorruttibile). Sulla terra i quattro elementi tendevano a ritornare nel luogo che gli competeva (il cielo compete al fuoco ed all’aria, mentre il suolo compete alla terra ed all’acqua); quindi la terra e l’acqua tendevano a cadere (per ritornare al suolo) mentre l’aria ed il fuoco tendevano a risalire (per ritornare al cielo).

Newton però fissò delle leggi e delle regole precise; cerchiamo prima di capire cosa sia la dinamica e come arrivare a quelle leggi.

Tutti noi abbiamo sperimentato il fatto che per ”mettere in moto” un oggetto occorre effettuare uno ”sforzo”. Infatti nell’accezione comune la forza è legata ad un’azione muscolare: tutti sappiamo anche che dobbiamo esercitare una grande forza per spingere una macchina, ma che probabilmente non siamo in grado di spingere un camion per quanto sforzo possiamo esercitare. Dunque in qualche modo il moto ha a che fare con la quantità di materia e con lo sforzo che si esercita.

Dato che per far muovere un corpo è necessario esercitare uno sforzo, si è pensato per lungo tempo che per far viaggiare un corpo con velocità costante occorresse una forza. D’altra parte questa osservazione non spiega perché per smuovere un corpo occorra uno sforzo muscolare (o una forza) molto superiore. Analogamente, per fermare un corpo in movimento occorre uno sforzo superiore a quello necessario per mantenerlo in moto. La spiegazione odierna è che occorre considerare tutti gli effetti a cui è sottoposto un corpo in movimento.

Infatti consideriamo una palla con una superficie molto liscia che rotoli su una superficie anch’essa molto liscia. Se la mettiamo in movimento con una spinta essa continuerà a rotolare per un bel tratto, ma alla fine si fermerà. Nella vecchia teoria dell’impetus, la spiegazione era che la palla perdeva lentamente la forza (l’impetus) che le era stata applicata. Questa nozione persiste tutt’oggi come nozione di senso comune e deriva da una sorta di identificazione tra lavoro effettuato e forza applicata. In ogni caso, se ripetiamo l’esperienza precedente della palla su una superficie più ruvida, stando attenti a fornirle uguale spinta, si vedrà che la palla effettuerà un percorso più breve. Questo ci suggerisce che siano le irregolarità della superficie ad ostacolare il moto. Ovviamente queste irregolarità non sono completamente eliminabili. Anche se studiassimo il moto all’interno di una camera a vuoto, qualche piccolo effetto di resistenza al moto sarebbe sempre presente, visto che anche con le migliori tecniche a nostra disposizione una piccola quantità di aria rimane sempre presente (circa 108 atomi/cm3 nel vuoto migliore).

Possiamo però pensare ad una situazione idealizzata, come abbiamo fatto nel caso della caduta dei gravi nel precedente “paragrafo”, dove si ipotizza la possibilità di avere superfici perfettamente lisce e/o ambienti completamente privi di gas. Le esperienze precedenti suggeriscono che in queste condizioni, una volta messo in moto un corpo, e nessun’altra forza applicata, il corpo continui nello stato di moto che aveva al momento in cui la forza applicata è cessata. L’affermazione che il corpo rimane nel suo stato di moto significa che se possiede una certa velocità e quando cessa la forza, questo continuerà a mantenerla. Se il corpo era inizialmente in quiete con nessuna forza applicata, il corpo rimarrà in quiete. Questo è il contenuto della prima legge di Newton che per altro era già nota a Galileo ed a Cartesio.

  1. Il principio di inerzia o primo principio della dinamica: Se su un corpo non agiscono forze o agisce un sistema di forze in equilibrio, il corpo persevera nel suo stato di quiete o di moto rettilineo uniforme.

Per “sistema di forze in equilibrio” si intende un insieme di forze la cui somma vettoriale sia nulla (se spingo un oggetto da due lati opposti, è ovvio che non si muova).

Questa legge non ci dice molto nei riguardi di una definizione quantitativa della forza, però ce ne descrive gli effetti qualitativi. Per esempio, ci dice che la presenza di una forza sarà connessa con un’accelerazione non nulla ed in questo senso ci dà una sorta di definizione operativa della forza stessa. Cioè ci dice che l’effetto di una forza è quello di produrre una variazione di velocità. Questa variazione di velocità è detta appunto accelerazione.

In termini “tecnici” (o, meglio, differenziali), l’accelerazione è la derivata rispetto al tempo del vettore velocità, così come la velocità è la derivata del vettore posizione rispetto al tempo. Per quello, essendo la derivata di una derivata, l’accelerazione si esprime in metri al secondo per secondo.

Ci sono molte applicazioni della prima legge di Newton. Basti pensare ad esempio a cosa succede quando andiamo in automobile. Avete mai osservato il comportamento di una bibita in auto quando si passa dallo stato di riposo (auto ferma) allo stato di moto? La bibita, che è a riposo, ”tende” a rimanere nel suo stato di riposo e se il bicchiere è pieno fino all’orlo, il liquido si rovescia. Viceversa, quando un’auto frena, la bibita ”tende” a preservare il suo stato di moto con la stessa velocità, e nuovamente si rovescia. Quindi non bevete bibite mentre accompagnate i vostri amici alle guide per prendere la patente.

 La stessa cosa succede all’autista dell’auto. Quando frena, subisce l’effetto della propria inerzia. Infatti tenderà a mantenere il proprio moto. Sarà la cintura di sicurezza ad applicare su di lui una forza tale da farlo fermare insieme alla sua auto.

Ma cos’è l’inerzia? Possiamo definirla come la tendenza naturale dei corpi a ”resistere” alle variazioni del loro stato di moto.

In realtà il concetto di inerzia, fu introdotto da Galileo, che ipotizzò l’esistenza di una forza, detta forza d’attrito, come responsabile dell’arresto del moto degli oggetti. Le sue esperienze si servivano di piani inclinati posti uno di fronte all’altro. Galileo osservò che una pallina scendeva da un piano inclinato e saliva sull’altro arrivando circa alla stessa altezza. Cambiando inclinazione di uno dei piani inclinati, osservò che ancora la pallina raggiungeva la stessa altezza di partenza, quindi percorrendo spazi maggiori. Ipotizzò che le piccole differenze nelle quote raggiunte fossero dovute alla presenza di una forza di attrito e concluse che nel caso ideale in cui l’attrito fosse completamente eliminato la pallina raggiungerebbe esattamente la stessa altezza. Questo significa che riducendo sempre più l’inclinazione di un piano inclinato, la pallina percorrerà distanze sempre maggiori, fino ad arrivare al caso in cui, in assenza di attrito, la pallina continua nel suo stato di moto a velocità costante.

Abbiamo detto che l’inerzia è la tendenza di un oggetto a resistere alle variazioni del suo stato di moto. Ma cosa intendiamo con ”il suo stato di moto”? Lo stato di moto di un oggetto è definito dalla sua velocità. Quindi possiamo dire che l’inerzia di un corpo è la sua tendenza a resistere alle variazioni di velocità. Inoltre, come abbiamo imparato, le variazioni di velocità sono legate all’accelerazione. Quindi l’inerzia di un corpo è la sua tendenza a resistere all’accelerazione.

Nell’enunciato della prima legge di Newton, si dice che se la forza totale che agisce su un corpo è nulla, allora l’accelerazione a cui è soggetto il corpo è nulla. La forza totale è la risultante di tutte le forze che agiscono sul corpo. Se la risultante è nulla, significa che tali forze si fanno equilibrio. Quindi la prima legge di Newton afferma che “se le forze che agiscono su un corpo non sono in equilibrio, allora il corpo subirà un’accelerazione”.

La relazione esistente tra forza e accelerazione è contenuta nella seconda legge di Newton. Più precisamente la seconda legge di Newton dà una relazione tra tre quantità: massa, forza ed accelerazione. Mentre abbiamo dato una definizione operativa di accelerazione, dobbiamo ancora definire le altre due quantità. Ma leggiamoci prima la seconda legge.

2. La legge fondamentale della dinamica o secondo principio della dinamica: Se su un corpo agisce una forza o un sistema di forze, la forza risultante applicata al corpo possiede direzione e verso della sua accelerazione e, in modulo, è direttamente proporzionale al modulo la sua accelerazione.

La costante di proporzionalità tra queste due grandezze è la massa, detta in questo caso “massa inerziale”, grandezza specifica di ciascun corpo. Questa legge può essere enunciata mediante l’equazione

F=ma

dove F è la risultante delle forze agenti sul corpo, m la massa dello stesso, e a l’accelerazione cui è soggetto.

In pratica il moto accelerato si produce solo tramite l’applicazione di una forza, l’accelerazione prodotta su di un corpo da una data forza è proporzionale alla forza stessa e la costante di proporzionalità è detta massa del corpo.

Possiamo adesso usare la seconda legge di Newton per fissare delle convenienti unità di misura per le forze e definire poi la massa. Andiamo a Gaithersburg, nel Maryland, presso il National Institute of Standards and Technology e trafughiamo nottetempo la massa campione di platino iridio (di cui avevamo già parlato): applicandogli una forza tale da produrre un’accelerazione di 1 m/sec2, diremo che la forza ha un valore di 1 Newton, abbreviato 1 N. In questo modo possiamo tarare i nostri dinamometri assegnando ad ogni forza, determinata precedentemente in relazione ad un peso campione, un valore in Newton. Dalla equazione vediamo che l’unità di forza è uguale all’unità di massa per l’unità di accelerazione, ovvero

1 N = 1 Kg m/sec2

A questo punto, usando un apparecchio del tipo mostrato in figura che segue,

dinamometro

possiamo misurare la massa di un corpo, semplicemente misurando l’accelerazione del corpo e la forza ad esso applicata usando un dinamometro. Si può inoltre verificare che le masse si sommano. Cioè la stessa forza applicata ad una massa doppia, produce un’accelerazione pari alla metà.

Ricordiamo l’esperimento di Galileo che realizzò dalla Torre di Pisa, in cui asseriva che tutti gli oggetti in caduta libera subiscono la stessa accelerazione, indipendentemente dalla loro massa. Consideriamo il moto di un sasso con una massa di 10 Kg e quello di una massa di 1 K. Sul sasso di 10 Kg agisce una forza 10 volte maggiore della forza che agisce sul sasso di 1 Kg e l’accelerazione dei due sassi è la stessa: l’accelerazione di gravità (9,8 m/s2).

Quindi possiamo dire che la forza di gravità è proporzionale alla massa e costante per tutti gli oggetti: spesso il peso di un corpo non viene espresso in N ma in Kgp (chilogrammo peso). Ricordiamo che il Kgp è l’intensità della forza peso a cui è soggetta la massa di un Kg. Quindi, ad esempio, 1 Kg di pane pesa 1 Kgp, cioè 9,8 Newton (e io 872,2, ma non ditelo a mia moglie altrimenti mi mette a dieta).

Il panorama della dinamica è completato dalla terza legge di Newton. Abbiamo dato una definizione operativa di forza dall’analisi di situazioni di equilibrio (definizione statica di forza). Possiamo però considerare una definizione più generale di forza come l’effetto su di un oggetto che deriva dalla sua interazione con un altro oggetto. Ogni volta che c’è interazione tra due oggetti, c’è una forza che agisce su ciascuno di essi. Quando l’interazione cessa i due oggetti non sono più sottoposti a forza. Per semplicità, tutte le forze (interazioni) tra oggetti, possono essere divise in due categorie: forze di contatto e forze che risultano da interazioni a distanza. Le forze di contatto sono tipi di forza tra due corpi che sono effettivamente a contatto. Questo è ad esempio il caso delle forze di attrito, delle forze di reazione di superfici di appoggio, delle forze di resistenza dell’aria ecc. Le forze di azione a distanza sono tipi di forza in cui i due oggetti interagenti non sono a contatto fisico, come ad esempio nel caso della forza gravitazionale (il sole e i pianeti si attraggono nonostante siano separati spazialmente, anche nel caso in cui un oggetto non tocca il suolo, è attratto dalla forza gravitazionale), oppure il caso della forza elettrica (i protoni nel nucleo atomico attraggono gli elettroni), le forze magnetiche (due calamite si attraggono o si respingono anche se sono separate da una distanza di qualche centimetro).

Quindi ne risulta:

3. Il principio di azione-reazione o terzo principio della dinamica: Se due corpi interagiscono tra loro, si sviluppano due forze, dette comunemente azione e reazione: come grandezze vettoriali sono uguali in modulo e direzione, ma opposte in verso.

Questa affermazione significa che in ogni interazione, c’è una coppia di forze che agisce sui due oggetti interagenti. Tale coppia è formata dalla forza di azione e da quella di reazione (uguali in modulo, con la stessa direzione ma verso opposto).

Attenzione, le forze di azione e reazione non si fanno equilibrio, perché sono applicate a oggetti diversi! Esiste una grande quantità di situazioni in cui due forze uguali ed opposte agiscono sullo stesso oggetto, annullandosi a vicenda cosicché non si avrà alcuna accelerazione (o addirittura nessun moto). Questo non riguarda il terzo principio della dinamica (terza legge di Newton), ma piuttosto un caso di equilibrio tra forze.

Chi ha familiarità con le piccole imbarcazioni sa bene che prima di saltare da una barca verso il molo di attracco, è opportuno legare prima la barca al molo e afferrare una presa sul molo prima di saltare. Altrimenti, quando saltate, la barca “magicamente” si allontana dal molo, facendovi fallire il salto, oppure spingendo la barca fuori dalla vostra portata. Tutto questo è dovuto alla terza legge di Newton: quando le gambe spingono il vostro corpo verso il molo, esse esercitano anche sulla barca una forza uguale e in verso opposto, e questa forza spinge via la barca dal molo (c’è un esempio anche nel film “Passengers” quando Chris Pratt, alla deriva nello spazio, spinge verso un reattore un oggetto e automaticamente viene spinto nella direzione opposta).

Un esempio più sottile è fornito dalla bicicletta. È ben noto che stare in equilibrio su una bicicletta da fermo è quasi impossibile, mentre su una bicicletta in moto è piuttosto facile. Perché?

Diversi principi sono all’opera in questo caso. Supponete di sedervi su una bicicletta che stia ferma, e vi accorgete che si sta inclinando verso sinistra. Che cosa fate? La tendenza naturale è quella di inclinarvi verso destra, per controbilanciare quell’inclinazione mediante il vostro peso. Ma muovendo la parte superiore del vostro corpo verso destra, secondo la terza legge di Newton, state in realtà spingendo la bicicletta ad inclinarsi ancora di più verso sinistra. Forse dovreste inclinarvi verso sinistra per spingere la bicicletta indietro? Potrebbe funzionare per una frazione di secondo, ma a quel punto voi avete perso del tutto l’equilibrio. Non c’è modo!

Su una bicicletta in movimento, l’equilibrio è mantenuto mediante un meccanismo completamente diverso. Ruotando leggermente il manubrio a destra o a sinistra, voi impartite una certa rotazione alla ruota anteriore (“momento angolare”) per ruotare la bicicletta attorno al suo asse maggiore, la direzione di marcia della bicicletta. In questo modo il ciclista può controbilanciare ogni tendenza della bicicletta a cadere da un lato o dall’altro, senza innescare il circolo vizioso di azione e reazione.

Per scoraggiare i ladri, alcune biciclette montano un antifurto che blocca il manubrio in una posizione fissa. Se la posizione del manubrio è bloccata nella direzione in avanti, la bicicletta può essere condotta a mano da una persona che cammina, ma non può essere montata, poiché il ciclista non potrebbe mantenere l’equilibrio.

Le leggi di Newton sono state introdotte qui nel modo tradizionale, mediante i concetti di massa e di forza (in realtà Newton formulò la seconda legge in termini di quantità di moto, non di accelerazione). Ernst Waldfried Josef Wenzel Mach (1838 – 1916), fisico austriaco, tra l’altro scopritore di un rapporto tra la velocità di un oggetto in moto in un fluido e la velocità del suono nel fluido considerato, detto “numero di Mach”, cercò di evitare nuovi concetti e formulò le leggi fisiche soltanto in termini di ciò che può essere osservato e misurato. Egli sostenne che le leggi di Newton si potevano riassumere tutte in questa unica legge:

“Quando due oggetti di dimensioni trascurabili (in linguaggio tecnico “punti materiali”, nda) interagiscono tra loro, essi accelerano in direzioni opposte, e il rapporto delle loro accelerazioni è sempre lo stesso”.

Rileggete questa formulazione quante volte volete: non c’è alcuna menzione di forza, né di massa, ma soltanto di accelerazione, che può essere misurata. Quando una pistola agisce su un proiettile, un razzo sui suoi gas di scarico, il Sole sulla Terra (e nella scala della distanza che li separa, Terra e Sole possono essere considerati masse puntiformi), le accelerazioni sono sempre dirette in verso opposto.

Il lavoro di Mach venne ritenuto importantissimo da Einstein, e quest’ultimo lo usò per dare le fondamenta alla relatività generale. Il tutto, partendo da una mela caduta in testa a Newton! La prossima volta approfondirò un po’ di concetti espressi in questo articolo, sperando sempre di fare cosa utile anche a te, giovane lettore. Vedremo chi era Keplero e come usò le formulazioni di Newton per farci orientare su questa nostra piccola Terra.

Quanti? Tanti!

A volte mi sono dilettato, su questo blog, con poesie in dialetto. Ne ho composta una in napoletano (‘O ggiuramento), una in tarantino (Pasche) e una in romanesco (Er Natale). Per chiudere il cerchio, sto provando a scriverne una in siciliano, dedicata al Carnevale. Gli ostacoli sono immensi, perché non è un dialetto semplice; ma proprio perché siamo nel periodo carnevalesco, mi sembra giusto parlare di un argomento molto trattato di questi tempi: la medicina quantistica.

Non esiste, naturalmente, nessuna branca della Medicina che si occupi di applicare la fisica quantistica alla cura delle patologie, se non nelle illusioni e nelle fantasie di menti disturbate che proclamano l’esistenza della medicina quantistica.

Certo, esiste un apporto della fisica alla medicina, e lo vedremo, ma quando sento parlare di medicina quantistica mi esce il fumo dal naso come i tori di certi cartoni animati.

Partiamo dalle definizioni, come sempre.

La parola italiana medicina ha origine dal verbo latino mederi, cioè curare, medicare. “Ars medicina” era detta la scienza medica, arte perché basata su precetti pratici e sull’esperienza individuale del medico.

Il medico greco Ippocrate di Coo (o Cos, o Kos), vissuto nel V secolo a.C., è ritenuto il fondatore della medicina come scienza. Infatti, nelle opere a lui attribuite, si trova una descrizione della malattia come insieme ordinato di sintomi e della cura come utilizzo logico di elementi terapeutici correlati ai sintomi. L’arte del medico era la ricerca di tali sintomi e l’applicazione dei relativi rimedi.

La medicina greca è una delle prime scienze che abbia applicato un metodo esatto e rigoroso imitato in seguito da altre scienze di origine antica come la matematica e la fisica. Ippocrate fissò anche i principi etici di comportamento del medico. Tali principi sono contenuti in un testo, il giuramento d’Ippocrate, che i medici di tutto il mondo pronunciano ancora oggi prima di iniziare la professione.

La medicina moderna è una scienza che studia i fenomeni patologici, cioè le malattie del corpo. Per far questo mette in pratica i risultati delle ricerche di laboratorio svolte con l’ausilio di altre scienze come la chimica, la fisica, la farmacologia, la biologia. Quest’ultima, in particolare, individuando nella cellula il componente minimo degli organismi viventi, fornisce alla medicina preziose conoscenze di base.

La medicina ha lo scopo di prevenire e curare le malattie per migliorare la durata e la qualità della vita e comprende un gran numero di specialità o specializzazioni i cui nomi possono derivare dai mezzi di cura, come accade per la medicina nucleare, dagli organi di cui ci si occupa, come per la medicina oculistica, dal tipo di malattie che insorgono in un determinato contesto, come la medicina sportiva.

Nel parlare comune la medicina cura attraverso composti farmaceutici, detti medicine ed è opposta alla chirurgia, che interviene invece con mezzi meccanici, correggendo l’assetto fisico del paziente. Anche i reparti degli ospedali prendono il nome dal tipo di terapie che vi si praticano e dalle specialità delle quali si occupano. La facoltà universitaria in cui si studia per diventare medici si chiama invece Facoltà di Medicina e Chirurgia (mia figlia Simona vorrebbe intraprendere la carriera medica, cosa che le auguro con tutto il cuore, anche se il portafogli non vorrebbe…).

Il termine fisica proviene dal latino physica, voce dotta derivata dall’aggettivo physicus formatosi dal greco τὰ φυσικά [tà physiká] e da φύσις [physis], “natura”, ovvero “le cose naturali”. Fisica è anche il titolo dell’opera di Aristotele, in cui il filosofo greco descrive i fenomeni della natura, ricercando le leggi che li governano.

Oggi si dice fisica la scienza, o, meglio, l’insieme di scienze, il campo di ricerca, che osserva i fenomeni naturali e cerca di ricavare le leggi che li regolano. In pratica, i fisici cercano leggi che possano spiegare i fenomeni dell’universo, permettendo loro di riprodurli con esperimenti.

Dalla fisica si sono distaccate la biologia e la chimica, che analizzano i fenomeni della vita e le combinazioni degli elementi. Come la matematica, la fisica si divide in fisica teorica e fisica applicata. La prima spiega i fenomeni conosciuti deducendoli da leggi generali per poi formulare ipotesi sull’esistenza di fenomeni sconosciuti ma regolati dalle stesse leggi. La seconda applica le regole della fisica ad altre scienze e cerca utilizzi pratici di quanto scoperto dalla fisica teorica.

Molte sono le scienze correlate al mondo fisico: ad esempio l’ottica, che studia le leggi della luce; l’acustica, che si occupa del suono; la termotecnica e la termodinamica che osservano le trasformazioni della materia in presenza di energia; la fisica nucleare che si occupa dell’atomo. Oggi la fisica, accanto ad altre scienze, contribuisce anche allo studio dell’ambiente e alla soluzione dei problemi causati dall’inquinamento.

Nella storia della fisica troviamo scoperte e teorie che hanno rivoluzionato la nostra civiltà. Tra queste, la legge di gravitazione universale elaborata da Isaac Newton e la teoria della relatività di Albert Einstein.

Newton, ampliando le osservazioni di Galileo Galilei sulla forza di gravità, dimostrò come questa forza che attira gli oggetti verso il centro della terra, tiene in equilibrio fra loro i pianeti del sistema solare.

Agli albori del Novecento, Albert Einstein scoprì che le leggi di Newton erano valide nelle normali condizioni di osservazione, mentre in situazioni differenti, ad esempio nei nuclei degli atomi e a velocità pari o superiori a quella della luce i parametri di comportamento degli oggetti naturali e i loro criteri di misurazione erano profondamente diversi. Per la fisica einsteiniana ogni forma di vita è in realtà energia e quindi esposta a trasformazioni, come accade alla legna che brucia in un camino.

La meccanica quantistica (anche detta fisica quantistica o teoria dei quanti) è la teoria fisica che descrive il comportamento della materia, della radiazione e di tutte le loro interazioni viste sia come fenomeni ondulatori sia come fenomeni particellari (dualismo onda-particella), a differenza della fisica classica o newtoniana, basata sulle teorie di Isaac Newton, che vede per esempio la luce solo come onda e l’elettrone solo come particella.

Riporto ora qualche frase di uno dei miei scienziati preferiti, il premio Nobel Richard Feynman:

“È importante tener presente che nella fisica odierna, noi non abbiano cognizione di ciò che l’energia è. Non abbiamo un modello che esprima l’energia come somma di termini definiti. (da La fisica di Feynman, vol. I parte I, traduzione di E. Clementel, S. Focardi e L. Monari, Inter European Editions, 1975, 4–1)”.

“Penso di poter affermare che nessuno capisce la meccanica quantistica. (citato in Tony Hey, Patrick Walters, “The New Quantum Universe”, 2003)”.

Notate qualcosa che possa unire le due cose (la medicina e la meccanica quantistica)? In effetti qualcosa c’è, e lo andiamo a scoprire insieme. Si chiama diagnostica per immagini.

La diagnostica per immagini si riferisce a vari metodi non invasivi per identificare e monitorare diversi tipi di malattie attraverso la produzione di immagini che rappresentano la struttura anatomica interna e gli organi del corpo del paziente. Le dettagliate immagini prodotte da queste procedure sono usate per informare in maniera più dettagliata il paziente e il medico sull’ organizzazione anatomica, il lavoro funzionale degli organi interni e la struttura del corpo del paziente. La diagnostica per immagini è uno strumento di informazione che ha permesso di espandere notevolmente la conoscenza dei medici, dei pazienti e della pratica della medicina più in generale.

I radiologi e altri specialisti del settore (come Carmine, detto CFM, mio grande amico) interpretano le immagini che ricevono per diagnosticare vari tipi di malattia o traumi così che il trattamento e la terapia per il paziente possa essere pianificata e implementata in maniera sempre più specifica (e lui, CFM, lo fa in maniera davvero efficace).

Ad oggi delle tecniche nuove e innovative come gli ultrasuoni, la risonanza magnetica e la tomografia computerizzata vengano ormai effettuate nei centri di radiologia accanto ai più tradizionali raggi X.

Le tecniche di diagnostica per immagini sono:

  • ecografia
  • ecografia dinamica
  • ecografia Doppler, anche nelle varianti Color Doppler e Power Doppler
  • ecografia con mezzo di contrasto
  • radiografia
  • stratigrafia o tomografia
  • tomografia computerizzata
  • imaging a risonanza magnetica
  • fluoroscopia
  • fluorangioscopia
  • angiografia
  • linfografia o linfangiografia
  • sialografia
  • mammografia
  • scintigrafia
  • tomografia ad emissione di positroni
  • tomografia ad emissione di fotone singolo.

La branca della medicina che si occupa delle ultime tre si chiama Medicina Nucleare, mentre l’ecografia e l’imaging a risonanza magnetica, pur non essendo ottenute tramite l’emissione di radiazioni ionizzanti, fanno parte in ogni caso del corpus radiologico e sono tuttora entrambe insegnate durante il corso di Specialità in Radiodiagnostica.

L’unico punto di contatto tra la fisica e la medicina è dato dal fatto che la medicina ha avuto dagli studi di fisica alcuni strumenti per diagnosticare le malattie. E basta.

Ora, se provate a cercare su internet la frase “medicina quantistica”, usciranno tanti di quei siti che si sperticano in spiegazioni senza però mai spiegare veramente cosa dovrebbe fare questa sedicente nuova medicina. Ne ho scelto uno a caso:

“Con il termine “medicina quantistica” indichiamo un nuovo tipo di medicina vista con l’ottica della fisica quantistica, che come molti sanno è quella parte della fisica che indaga la realtà nel campo dell’infinitamente piccolo; fu Max Planck, agli inizi del Novecento, a introdurre per primo il concetto del “quanto”come la particella elementare costituente elettricità e materia. Questa intuizione, che si concretizzò nel dualismo onda-corpuscolo della materia, portò al fallimento delle teorie classiche e fu terreno fertile per numerosi studiosi come J. C. Maxwell, W. Heisemberg, A. Einstein, Popp, Frohlch, P. Nogier, i quali affiancarono alla Fisica studi paralleli di Chimica, Medicina, Biologia ed arrivarono a dimostrare come l’uomo e l’universo siano un tutt’uno, interconnessi da una matrice primordiale che permette all’uno di influenzare l’altro e viceversa.”

Facciamo chiarezza sugli studiosi citati in quel brano.

Planck introdusse il concetto di quanto nell’autunno del 1900; Maxwell è morto nel 1879 e non ha evidentemente potuto usufruire delle ipotesi di Planck. Heisenberg è stato uno dei fondatori della meccanica quantistica, come del resto Einstein, che aiutò a gettare le basi della teoria, pur rimanendone per lungo tempo critico. Popp ha compiuto studi nel campo della biofisica, che però rimangono largamente allo stadio teorico. Fröhlich è stato un fisico teorico. Nogier è il creatore della “auricoloterapia”, pratica senza basi scientifiche. Riguardo l’ultima affermazione (“…arrivarono a dimostrare…”), non è legata agli studi dei fisici prima citati.

Continuo: “La teoria quantistica è stata chiamata prima meccanica quantistica, perché si supponeva che ci doveva essere una qualche legge meccanica coinvolta nel movimento delle particelle atomiche e dei quanti di energia simile a quella che descrive la meccanica dei corpi macroscopici, come i pianeti. […] La teoria quantistica ha quindi una portata molto più ampia del mondo microscopico, e può essere applicata a sistemi in generale dove molte singole parti lavorano insieme e si influenzano a vicenda.”

La fisica quantistica, come ho scritto prima, è tuttora chiamata meccanica quantistica. Inoltre, i fenomeni quantistici sono rilevanti quasi esclusivamente a livello atomico e subatomico. La questione è in realtà molto più complessa, ma l’affermazione dell’articolo non ha alcun valore scientifico. Riassumendo quanto detto, la parte fisica della medicina quantistica non poggia su alcuna base fisica scientificamente provata.

Analizziamo intanto le affermazioni mediche di quel sito.

Intanto, si parla di un nuovo tipo di medicina, che, se avesse basi scientifiche, sarebbe stata accolta dalla medicina “tradizionale”, proprio come è successo alla medicina nucleare, specialità medica piuttosto nuova nata dall’unione di fisica e medicina.

Infatti già a poche righe dall’introduzione appare la prima teoria strampalata: “Ogni cellula del nostro organismo, tramite il suo DNA che funziona come un trasmettitore–ricevitore, emette e può ricevere segnali frequenziali e tutte le cellule dell’organismo sono in continua e istantanea comunicazione fra di loro e si scambiano messaggi elettromagnetici con precisi effetti biologici. Tutto questo costituisce un sistema di autoregolazione continua, i cui dati viaggiano in continuazione tra le cellule per mantenere un equilibrio dinamico che si adatta alle modificazioni interne ed esterne e rappresenta equilibrio e salute.”

Rabbrividisco. Il fatto che le cellule siano in comunicazione tramite segnali elettromagnetici non è supportato da nessuna prova scientifica, ma soprattutto andrebbe contro gran parte del funzionamento dei nostri organi.

E alla fine, si capisce il perché di tutte queste frasi criptiche (più altre che ometto per decenza, dico solo che parlano anche di frattali…): “Il prodotto [omissis…]  è il più semplice ed efficace sistema di biofeedback informazionale ed energetico che utilizza hardware e software in un approccio multidimensionale per ridare l’equilibrio psicofisico, emozionale, biochimico ed energetico. In tempi molto rapidi si ottiene una risposta efficace che individua il cuore delle problematiche dell’individuo, consentendo al terapeuta di aiutarlo con diversi rimedi informazionali tra cui omeopatia, essenze floreali, erbe, agopuntura, nutrienti, integratori alimentari e molti altri. […] Per questo motivo il [omissis…] è indicato nel trattamento di: disturbi dell’umore; traumi; scompensi biochimici; dolori; psicosomatica; depressione; blocchi emotivi; deficit energetici; scarsa autostima; intolleranze e allergie; crescita motivazionale.”

Ecco spiegato! Devono vendere un prodotto!!!

Nel far west c’erano carrozzoni che giravano nel paese con cialtroni che provavano a vendere intrugli miracolosi, che spesso si rivelavano per quello che erano realmente, cioè intrugli. Ora i carrozzoni girano sul web.

I sintomi trattati sono tutti molto vaghi, tranne un paio che andiamo a vedere in dettaglio. La depressione non è una malattia con cui scherzare e a volte anche la psicoterapia (terapia scientificamente approvata) non è sempre risolutiva. L’efficacia del trattamento della depressione varia da persona a persona ed è un rischio inutile far abbandonare ad un paziente la terapia farmacologica o la psicoterapia in favore di questo tipo di pseudo-medicina.

Poi citano, tra i disturbi curabili “i dolori”. Ma il dolore è il modo che usa il corpo per avvertirci che c’è qualcosa che non va, sia che si tratti di un trauma, sia un’appendicite, o addirittura un infarto in corso.

Se noi curassimo il dolore senza curarne le cause, l’unica cosa che otterremmo il più delle volte sarebbe morire felici (per così dire).

In sostanza, la medicina quantistica è una truffa altamente pericolosa, oltre al fatto che si poggia su basi puramente pseudoscientifiche. Quindi cari amici complottisti, prima di dire: “meglio la medicina quantistica, almeno non sono collusi con le aziende farmaceutiche (!)”, pensate a quante fanfaluche (dal greco pompholyx, cioè “bolla d’aria”) ci sono in un’unica, inventata, nuova branca della medicina…

E se il mio medico fosse colluso con le case farmaceutiche, dubito andrebbe in giro con una Fiat degli anni ’90…

 

 

http://ilmegliodiinternet.it/medicina-quantistica-truffa-medica-fisica/
L’universo elegante, di Brian Greene
Alice nel paese dei quanti, di Robert Gilmore
QED, di Richard P. Feynman

La cinematica

Ogni volta che ci si accinge a fare qualcosa, si possono avere molteplici atteggiamenti. C’è chi odia le scadenze, c’è chi è abituato a fare tutto all’ultimo momento, c’è chi programma e chi no. Io tendo a non avere (o almeno ci provo) lo stesso atteggiamento in tutte le occasioni, ma l’istinto a volte prevale sulla ragione. Il mio passato militare mi porta a cercare di programmare con anticipo qualunque cosa voglia fare, anche se a volte mi rendo conto di correre a vuoto (con il termine “corse a vuoto” si identifica una particolare corsa equestre, in cui i cavalli corrono senza fantino. Attualmente corse a vuoto vengono effettuate solo a Ronciglione, una cittadina della provincia di Viterbo dove la tradizione si tramanda dal XV secolo ai tempi di Papa Paolo III Farnese). Adesso che avrei voluto scrivere di fisica in maniera organica, è venuto fuori un progetto (segreto, ovviamente) che mi allontanerà un po’ dal blog. Ma non troppo, mio giovane lettore, non disperare…

Intanto, aspettando la partenza di quel progetto segreto (ok, non ci riesco, devo scrivere un libro, ecco, l’ho detto…), continuo da dove avevo lasciato, anche se in verità di fisica ho parlato ben poco, nelle due (e mezzo) precedenti parti. Ho parlato di misure e di sistemi di riferimento e di come la fisica sia interconnessa un po’ con tutte le materie scientifiche (e anche con quelle non scientifiche). Inoltre abbiamo rivisto la vita di Marie Curie, di cui avevo già scritto in passato, proprio perché personaggio interessante sia per la fisica sia per la scienza in generale. Oggi iniziamo a parlare un po’ di fisica…

I primi fenomeni fisici che studieremo saranno quelli connessi al moto. Le ragioni per questa scelta sono molteplici. Storicamente lo studio dei moti semplici costituisce una delle prime applicazioni del metodo scientifico. Galileo Galilei (1564-1642) descrisse correttamente le leggi di caduta dei corpi e fu anche in grado di spiegare dettagliatamente il moto dei proiettili tramite un uso corretto del metodo scientifico, dando cioè priorità al confronto delle sue leggi con gli esperimenti. Inoltre il moto è un tema che pervade tutta la fisica, gli atomi in tutte le forme della materia sono in continuo movimento, il moto di un elettrone produce la corrente elettrica, i pianeti si muovono attorno al sole, e così via.

La cinematica (dal greco κίνημα -ατος, kinema -atos = «movimento», derivato a sua volta dal verbo κινέω, kineo = “muovo”) è la scienza che descrive il moto degli oggetti usando parole, diagrammi, numeri, grafici ed equazioni. Il fine di ogni studio di cinematica è di sviluppare modelli mentali che ci servono per descrivere (ed infine spiegare) il moto degli oggetti del mondo reale.

Iniziamo con le parole usate per descrivere il moto di un oggetto, ovvero con il linguaggio della cinematica. Le parole usate con regolarità sono: vettori, scalari, spazio percorso, spostamento, velocità, accelerazione.

La fisica è una scienza matematica, vale a dire che i concetti e i principi fisici hanno una base matematica. In particolare, le quantità matematiche usate per descrivere il moto di oggetti possono essere divise in due categorie:

  • scalari – quantità descritte completamente dalla loro misura;
  • vettori – quantità descritte oltre che dalla loro misura (modulo del vettore), anche da direzione e verso. Sono rappresentati da frecce, la cui lunghezza è proporzionale al modulo del vettore.

Ad esempio, immaginate una foto di un incontro di tennis nel quale si vede la pallina. Guardando la pallina e dicendovi che sta viaggiando alla velocità di 30 km/h, avete una descrizione completa della velocità? Non vi manca niente? Siete sicuri che è sufficiente un numero? La domanda che dovrebbe venirvi subito in mente è: “Ok, ma da che parte va quella pallina? Sta cadendo, salendo, a destra o sinistra?”. Ebbene, per descrivere la velocità della pallina, non è sufficiente un numero, vi serve anche una direzione, che graficamente si rappresenta con una linea. Adesso siete al completo? Io non credo… Sapete che la pallina sta viaggiando a 30 km/h e sapete anche la direzione. Che cos’è che vi manca? Ma certo, non sapete se la pallina sta cadendo oppure salendo, in altre parole vi manca il verso della velocità, che graficamente si indica con una freccia.

vettore_velocita_1 vettore_velocita_3

Ecco, quello è un vettore (una grandezza vettoriale, per essere precisi…).

Spazio percorso e spostamento sono quantità che sembrano significare la stessa cosa, in realtà hanno diverse definizioni e diverso significato.

  • Spazio percorso – quantità scalare che si riferisce a quanto spazio ha percorso un oggetto durante il suo moto;
  • Spostamento – quantità vettoriale che si riferisce al cambiamento di posizione di un oggetto.

Facciamo un esempio anche qui. Consideriamo un bambino che cammina per 4 metri a Est, 2 metri a Sud, 4 metri ad Ovest ed infine 2 metri a Nord. Anche se il bambino ha camminato coprendo in totale 12 metri il suo spostamento è nullo. Durante il suo moto ha percorso uno spazio di 12 metri ma alla fine del moto il bambino è tornato esattamente al suo posto, quindi il suo spostamento è stato di 0 metri. Lo spostamento è una quantità vettoriale e quindi dipende dalla direzione: i 4 metri ad Est sono stati cancellati dai 4 metri ad ovest e i 2 metri a Sud sono stati cancellati dai 2 metri a Nord.

La velocità è una quantità vettoriale che si riferisce a quanto e come un oggetto cambia la sua posizione. Immaginiamo una persona che si muove velocemente, un passo in avanti e un passo indietro, tornando sempre nella sua posizione di partenza. La sua velocità è zero. Se una persona in moto vuol massimizzare la sua velocità, allora questa dovrà fare ogni sforzo per massimizzare lo spostamento dalla sua posizione di partenza, e, sicuramente, non dovrà mai cambiare direzione e tornare verso il punto da cui è partita. La velocità, essendo una grandezza vettoriale, dipende infatti dalla direzione. Non è sufficiente dire che un’auto si muove con una velocità di 50 Km/h. Dobbiamo dare anche informazioni sulla direzione e verso per descrivere completamente la velocità dell’auto. Per esempio dovremmo dire che l’auto si muove con una velocità di 50 Km/h verso Est.

Indicare la direzione della velocità è un compito molto semplice, visto che questa è la stessa della direzione in cui si sta muovendo l’oggetto. Indipendentemente dal fatto che l’oggetto stia rallentando o stia aumentando la sua velocità, la sua direzione sarà sempre data dalla direzione in cui si sta muovendo l’oggetto stesso.

Possiamo poi definire un’altra grandezza, che chiameremo velocità scalare che descrive quanto spazio è stato percorso nell’unità di tempo. Nell’esempio precedente della persona che compie un passo avanti e uno indietro, abbiamo visto che la sua velocità è nulla in quanto il suo spostamento è nullo, ma non sarà nulla la sua velocità scalare.

Quando un oggetto si muove, spesso subisce variazioni di velocità. Ad esempio in un normale percorso in auto, l’indicatore di velocità (o più correttamente della velocità scalare) si muove costantemente a causa di frenate o accelerate. È quindi utile introdurre il concetto di velocità scalare media.

La velocità scalare media è una grandezza scalare definita come lo spazio totale percorso diviso il tempo impiegato, e tale definizione è molto diversa da quella per la velocità vettoriale media. Per esempio, nel moto circolare (il moto che avviene lungo una circonferenza) dopo un periodo T la velocità vettoriale media è nulla, perché il punto di arrivo e quello di partenza coincidono, ovvero ∆r=0 mentre la velocità scalare media è uguale a 2πR/T, in cui R è il raggio della circonferenza.

Facciamo subito un esempio: Chiara e Max sono in viaggio attraverso l’Italia e percorrono un totale di 440 Km in 8 ore. Qual è stata la loro velocità scalare media? (non possiamo avere informazioni sul vettore velocità visto che non sappiamo niente sulla direzione dello spostamento). Otteniamo quindi

         velocita scalare media = 440 Km/8 h = 55 Km/h

Questo non significa che Chiara e Max abbiano viaggiato ad una velocità costante di 55 Km/h. Sicuramente si sono fermati qualche volta (per esempio per il pranzo, conoscendo Max…) e quindi avranno percorso dei tratti a velocità superiore, per esempio a 80 Km/h. Ma la loro velocità scalare media è stata di 55 Km/h. In genere, nel linguaggio comune, è quella che noi chiamiamo semplicemente “velocità media”.

Consideriamo ora l’esempio di prima e supponiamo che il bambino compia il percorso in 24 secondi. Determiniamo la velocità scalare media e la velocità media. Il bambino ha percorso uno spazio di 12 metri in 24 secondi: quindi la sua velocità scalare media è 0,5 m/s. Però, siccome il suo spostamento è di 0 m la sua velocità media è di 0 m/s. (Ricordiamo che lo spostamento si riferisce al cambiamento di posizione e che la velocità si basa sulla variazione di posizione).

Poiché un oggetto in movimento cambia spesso la sua velocità durante il moto, è utile distinguere tra velocità media e velocità istantanea:

  • velocità istantanea – velocità ad un dato istante di tempo;
  • velocità media – variazione della posizione nell’intervallo di tempo considerato; il modulo è dato semplicemente dal rapporto (spostamento/tempo).

Non sempre gli oggetti si muovono con velocità variabile in modulo e/o in direzione. Può succedere che un corpo si muova con velocità costante: tale corpo percorrerà distanze uguali a intervalli di tempo regolari. Ad esempio un corridore può correre in linea retta con velocità costante di 6 m/s. Se la sua velocità si mantiene costante, questo coprirà uno spazio di 6 m ogni secondo. Se fossimo in grado di misurare la sua posizione (spazio percorso da un punto di partenza arbitrario) ciascun secondo, potremmo notare che la sua posizione cambia di 6 m ciascun secondo. Questo è in contrasto con un oggetto che cambia la sua velocità, che quindi coprirà distanze diverse ogni secondo. È utile quindi introdurre un’altra grandezza: l’accelerazione.

L’accelerazione è la quantità vettoriale che si riferisce a quanto e come un oggetto cambia la sua velocità. Un oggetto sta accelerando quando sta cambiando la sua velocità.

Quindi l’accelerazione non ha niente a che fare con quanto un oggetto si muove velocemente, viceversa è legata al cambiamento della velocità di un corpo. Se un oggetto non sta cambiando la sua velocità, allora l’oggetto non sta accelerando. In altre parole, un oggetto che si muove con velocità costante ha accelerazione nulla. Tutte le volte che la velocità di un oggetto cambia si dice che sta accelerando. Visto che gli oggetti accelerati cambiano costantemente la loro velocità, possiamo dire che (spazio percorso/tempo) non è costante.

Un oggetto che cade accelera. Se osserviamo il moto di un oggetto in caduta libera possiamo costruire una tabella:

Intervallo di tempo (∆t) velocità media nell’intervallo ∆t spazio percorso nell’intervallo ∆t spazio percorso totale
0-1 s 5 m/s 5 m 5 m
1-2 s 15 m/s 15 m 20 m
2-3 s 25 m/s 25 m 45 m
3-4 s 35 m/s 35 m 80 m

Vediamo da questo esempio che poiché la velocità varia di una quantità costante ogni secondo, l’oggetto sta accelerando in modo costante. Date le velocità medie per ogni intervallo di tempo, possiamo dedurre che l’oggetto è caduto di 5 metri nel primo secondo, di 15 metri nel secondo secondo (con uno spazio percorso totale di 20 metri), di 25 metri nel terzo secondo (con un totale di 45 metri), di 35 metri nel quarto secondo (con uno spazio percorso totale di 80 metri dopo 4 secondi) e via andando. Quindi un oggetto in caduta libera che accelera in modo costante coprirà spazi diversi in ogni successivo secondo (notare che nel caso di un moto di caduta libera sia direzione che verso sono fissati durante tutto il moto quindi, in questo caso, lo spazio percorso coincide con il modulo del vettore spostamento). Dall’analisi della prima e dell’ultima colonna dei dati in tabella scopriamo che c’è una relazione quadratica tra lo spazio totale percorso ed il tempo impiegato a percorrerlo per un oggetto che parte da fermo e che accelera in modo costante: lo spazio percorso totale è proporzionale al quadrato del tempo. Ovvero, fissato un intervallo di tempo di riferimento ∆t, se un oggetto cade per 4 volte ∆t, coprirà una distanza 42 = 16 volte più grande di quella coperta in ∆t (nell’esempio ∆t=5, 5×16=80) . L’accelerazione media di un oggetto si calcola usando l’equazione seguente:

accelerazione media = ∆/tf-ti = vf-vi

Ricordiamo che il simbolo ∆ indica una variazione, vf e vi indicano la velocità finale ed iniziale (si leggono v di f e v di i) e tf e ti il tempo finale ed iniziale. Questa equazione può essere usata per calcolare l’accelerazione di un oggetto il cui moto è descritto dai dati velocità-tempo in tabella.

Poiché l’accelerazione è una quantità vettoriale, avrà una direzione ed un verso ad essa associati. Il verso del vettore accelerazione dipende:

  • dal verso della velocità;
  • da cosa sta facendo l’oggetto in moto: se sta aumentando la sua velocità o la sta diminuendo. Vale la regola seguente: se un oggetto sta rallentando, allora la sua accelerazione è nella direzione opposta al moto e in gergo è conosciuta come “decelerazione”, anche se in fisica si chiama accelerazione negativa.

Per quanto sia a volte difficile, vi chiederò spesso di rappresentare i concetti fisici in modo visivo. Il mondo che stiamo cercando di capire è il mondo fisico, un mondo che possiamo vedere. Nel momento in cui cerchiamo di capirlo, questo processo coinvolgerà rappresentazioni visive. E quindi molto importante che le nostre abitudini di studio e di apprendimento siano continuamente controllate; dobbiamo cioè chiederci se le nostre conoscenze sono basate su una serie di parole astratte che non hanno relazione con il mondo fisico che cercano di descrivere o se invece le nostre conoscenze sono intimamente collegate a tale mondo fisico dalle nostre immagini visive.

Un diagramma vettoriale, ad esempio, indica la direzione, il verso e il modulo di una quantità vettoriale con una freccia. Il modulo del vettore è rappresentato dalla lunghezza del vettore. Diagrammi vettoriali possono essere usati per descrivere la velocità di un oggetto durante il suo moto. Essi possono essere usati per rappresentare qualunque quantità vettoriale come ad esempio l’accelerazione, la forza o il momento di una forza. Il grande Richard Feynman (1918-1988) usando i diagrammi vettoriali nella fisica delle particelle ha inventato di fatto l’elettrodinamica quantistica, vincendo nel 1965 il premio Nobel per la fisica.

Per terminare questa introduzione (introduzione? Io già non ce la faccio più a leggere, dirà il mio amico Vincenzo…, ok Vins, sto scherzando, ho quasi finito…) notiamo che la velocità media, cosi come l’accelerazione media non danno una caratterizzazione completa del moto. Per esempio in un intervallo di tempo di un’ora è possibile che la velocità sia cambiata più di una volta, mentre in un periodo di tempo più breve è possibile che si siano avute minori variazioni. Una idea più precisa si potrebbe avere se si conoscesse la velocità ad ogni istante. Per esempio il tachimetro (dal greco ταχύς, tachýs, “veloce”) di una macchina permette una tale conoscenza in modo pressoché istantaneo. Quello che fa il tachimetro (anche se tutti lo chiamano contachilometri) è di misurare di quanto si sposta la macchina (che viene dedotto dal numero di giri delle ruote) per intervalli di tempo molto piccoli. In questo modo si ha la velocità media in un intervallo di tempo piccolo. Dato che in questo intervallo di tempo la velocità sarà rimasta quasi costante, questa media si può assumere come valore istantaneo. Cioè la velocità istantanea può essere descritta come una velocità media calcolata su un intervallo di tempo molto breve. In modo analogo l’accelerazione istantanea può essere pensata come l’accelerazione media valutata su un intervallo di tempo molto piccolo.

Ricapitolando, abbiamo detto che la cinematica del punto materiale studia il moto dei corpi senza riferimento alle sue cause, per questo possiamo affermare che è la parte più elementare della meccanica: infatti, per riassumere, possiamo dire che un corpo è in moto quando la sua posizione rispetto ad un altro, assunto come riferimento, varia nel tempo.

Le grandezze fisiche necessarie per lo studio della cinematica sono:

  • Spazio – s, l, x, r…
  • Tempo – t
  • Velocità – v
  • Accelerazione – a

Dunque per descrivere il moto di un punto materiale che si muove lungo una traiettoria, è sufficiente associare ad ogni istante t il numero s che esprime la sua posizione sulla traiettoria in quell’istante. La legge che associa ad ogni istante t il corrispondente valore di s è detta legge oraria.

La legge oraria può essere espressa tramite:

  • una tabella
  • un grafico
  • una formula matematica

Abbiamo anche visto che la velocità è quella grandezza vettoriale che esprime la rapidità con cui cambia nel tempo la posizione del punto materiale, in pratica il rapporto tra spazio percorso e tempo impiegato a percorrerlo.

Le principali tipologie del moto di corpi puntiformi sono:

  • stato di quiete (eh, sì, anche lo stato di quiete è un moto, in cui la velocità è nulla);
  • moto rettilineo uniforme: tipico del punto che mantiene costante modulo, direzione e verso del vettore velocità;
  • moto circolare uniforme: punto che si muove lungo una circonferenza con modulo della velocità costante;
  • moto rettilineo uniformemente accelerato: punto che si muove con velocità regolarmente variabile in modulo e con direzione e verso costanti (esempio: caduta dei gravi);
  • moto parabolico: punto che si muove nelle due dimensioni di un piano verticale con velocità orizzontale costante e accelerazione verticale costante (ad esempio moto dei proiettili);
  • moto armonico: tipico della massa del pendolo o dello stantuffo del motore;
  • moto kepleriano: caratteristico dei pianeti e in genere dei corpi sottoposti a un potenziale coulombiano;
  • moto elicoidale uniforme: moto tridimensionale di un punto; il moto si compone di un moto piano circolare uniforme in un piano e di un moto rettilineo uniforme nella direzione perpendicolare al piano detto.

Non li descriverò uno ad uno perché lo scopo di questi scritti non è quello di creare un manuale, ma di dare una traccia a chi volesse partire a studiare fisica in maniera un po’ più approfondita.

Prima di chiudere questa parte voglio citare uno dei più comuni errori che vengono fatti riguardo al moto dei gravi in caduta libera. Sappiamo che l’accelerazione di un oggetto in caduta libera (sulla terra) è di 9,8 m/sec2. Questo valore è lo stesso per tutti gli oggetti, indipendentemente dal tempo di caduta, dalla loro velocità iniziale, dalla loro posizione iniziale. La domanda che spesso viene fatta è la seguente: un oggetto con una massa maggiore accelera di più rispetto ad un oggetto con minore massa? La risposta è no; ovviamente se stiamo considerando il moto di caduta libera che avviene sotto la sola influenza della forza di gravità. Questa domanda è ragionevole e deriva da osservazioni quotidiane di oggetti in caduta libera. Chiunque di noi ha osservato la differenza tra la caduta di un pezzo di carta e di un libro! I due oggetti, anche se lanciati dalla stessa altezza, non cadono con velocità confrontabili, il libro cade più velocemente. Ma questo è dovuto all’effetto della resistenza dell’aria. La spiegazione del perché tutti i corpi subiscano la stessa accelerazione di gravità richiede la conoscenza dei concetti di forza e di massa che vedremo in seguito. Impareremo che l’accelerazione è direttamente proporzionale alla forza e inversamente proporzionale alla massa. Quindi su una massa doppia agisce una forza gravitazionale doppia, ma poiché l’accelerazione è inversamente proporzionale alla massa, ne risulta che tutti gli oggetti cadono con la stessa accelerazione indipendentemente dalla loro massa.

Adesso che abbiamo i concetti di base del moto, senza però saperne le cause, possiamo andare un po’ più a fondo. La prossima volta, quando sarà, parleremo di “dinamica”, che è il ramo della meccanica che si occupa dello studio del moto dei corpi e delle sue cause o, in termini più concreti, delle circostanze che lo determinano e lo modificano.

Ovviamente invito come sempre tutti i lettori a farsi e farmi domande su quanto da me raccontato, poiché è questo il modo migliore per imparare le cose! Alla prossima!