Il Libro di Fisica – la fisica classica

In questo articolo riunisco tutti gli articoli scritti sulla fisica classica, con due opzioni:

cliccando sul titolo si sarà indirizzati direttamente all’articolo originale, cliccando sul numero, si rimarrà su questa pagina (dove comunque sono riportati, di seguito, tutti gli articoli). Decidete voi!

P.S.: Alcuni capitoli, come il quarto, “Le forze”, in realtà fanno parte di altre serie di articoli. Però, per completezza di trattazione, li ho incastrati cronologicamente qui.

P.S.2, la vendetta: La lettura complessiva di questo “malloppo” è di circa 3 ore, come un libro di un centinaio di pagine. Vi avviso, crea dipendenza!

Menu (numero= pagina in questo articolo – titolo=articolo originale)

1 Introduzione alla fisica

2 Introduzione alla fisica – parte seconda

3 Fisica e chimica

4 Le Forze

5 La cinematica

6 La dinamica

7 Forze e moto: Principi della Dinamica

8 Lavoro ed Energia, energia e leggi di conservazione

9 Temperatura e calore

10 Trasformazioni termodinamiche

11 Le onde: Acustica

12 Luce e Ottica

13 Luce e ottica – parte seconda

14 Elettrostatica

15 La corrente elettrica

16 Il magnetismo e le interazioni con l’elettricità

17 L’elettromagnetismo

Introduzione alla fisica

Inizio del ‘900. Inverno. Sono le otto di sera e la strada principale del paese è immersa nel buio. Non ci sono automobili, ogni tanto passa qualche intrepido a piedi o in carrozza. Si vede da una finestra la luce fioca di una lampada a petrolio e da un’altra si sente il crepitio di un camino. In una delle case vive Arturo, 43 anni, molti acciacchi (morirà di pleurite un paio di anni dopo) ed analfabeta. Non ha il telefono, la televisione, il computer, la plastica e altre cose che oggi consideriamo normali.

Pensiamo a come vivevano i nostri nonni quando erano piccoli. Nel 1900 il 13% delle persone che aveva raggiunto i 65 anni poteva aspettarsi di compierne 85. Oggi circa la metà delle persone che hanno raggiunto i 65 anni può aspettarsi di vivere così a lungo. Inoltre le persone sono fisicamente diverse: gli uomini, per esempio, sono circa 10 centimetri più alti rispetto a 100 anni fa e pesano 25 chili di più. Non c’era l’elettricità e la luce era data da lampade a olio di noci, petrolio o dalle candele di cera (molto costose in quel tempo), che si stava ben attenti a non consumare. In campagna non c’era l’acqua nelle case e per il bagno la scelta variava da un campo all’aria aperta dietro un cespuglio, o una piccola costruzione col tetto di frasche staccata dalle case con funzione di gabinetto o la stalla.

In cucina c’erano uno o più secchi che si andavano a riempire d’acqua alla fontana. Un fiasco, invece, veniva riempito un po’ prima del pranzo direttamente alla sorgente, perché l’acqua da bere era così più fresca. Per lavarsi, si riempiva il catino d’acqua. Durante i mesi invernali nella stufa o sul camino, acceso dalla mattina alla sera, vi era sempre un paiolo d’acqua a scaldare di circa 5 litri, per cui almeno nei mesi freddi c’era sempre acqua calda disponibile. Solo il sabato si svolgeva la cerimonia del bagno completo, dentro una grande tinozza, che veniva piazzata nella stanza più calda (la cucina), e ci si lavava lì, a turno. Però, dopo due bagni l’acqua veniva cambiata. In estate ci si lavava con l’acqua scaldata dal sole. La conservazione degli alimenti era un problema molto serio, quelli deperibili venivano consumati in giornata o, al massimo nei due giorni successivi. Altri alimenti potevano essere messi sotto sale, sotto il grasso della sugna oppure essiccati o affumicati.

Che cosa ha cambiato la nostra vita in maniera così radicale?

Intanto, le scoperte scientifiche. In seconda battuta, la tecnologia che quelle scoperte hanno reso possibile. Eppure, pochi di noi, traslati a cento anni fa da adesso, saprebbero cosa fare per rendere la propria vita più agiata. Mi spiego. Se uno di noi, per assurdo, si svegliasse una mattina e si trovasse nel 1916, cosa saprebbe fare con la tecnologia a disposizione a quel tempo? Quasi nulla… Chi saprebbe fare le cose più elementari? Io una volta ho provato a costruire un coltello da una selce (roccia sedimentaria composta quasi esclusivamente di silice, composto del silicio). Quando ci ho provato ho avuto seri problemi a trovare e riconoscere una selce, per non parlare dello scheggiarla e farne una lama. Eppure gli uomini primitivi ci riuscivano. Pensate a quello che riuscireste a fare senza tutto quello che vi circonda oggi.

La scienza ha avuto un ruolo fondamentale nel progresso umano. In economia, il progresso tecnico è definibile, genericamente, come il “processo di acquisizione di conoscenze e abilità che espande l’insieme dei beni in astratto producibili, finali e intermedi, e/o l’insieme delle tecniche di produzione conosciute, migliorando così l’efficienza produttiva delle dotazioni dei fattori produttivi. In genere, esso è ottenuto attraverso un processo di ricerca e sviluppo in grado di produrre innovazione sotto forma di miglioramento tecnologico”. Ed il salto che è stato compiuto nell’ultimo secolo è davvero impressionante.

Oggi conosciamo le leggi fondamentali che regolano l’universo e le interrelazioni gravitazionali tra i suoi componenti più importanti, come mostrato dalla teoria della relatività elaborata tra il 1905 e il 1916. Conosciamo anche le leggi basilari che governano le particelle subatomiche e le loro interrelazioni, chiaramente descritte dalla teoria dei quanti elaborata tra il 1900 e il 1930. Inoltre, tra il 1920 e il 1930, abbiamo scoperto che le galassie e gli ammassi di galassie sono le unità di base dell’universo.

E questo grazie alla fisica.

In questo blog mi sono spesso (quasi sempre, dirà qualcuno) occupato di scienza e in particolar modo di fisica. Ma in modo disordinato. Vorrei, se ne avrò tempo e modo, seguire un filo logico, quindi, per le prossime volte scriverò, intervallando con le solite biografie di scienziati, in maniera un po’ più organica, quasi fosse un libro di fisica. Ci sarà una introduzione alla fisica (questo articolo), con la spiegazione dei dogmi di base della materia, proprio per poter affrontare le letture successive con un sistema di riferimento. Poi parlerò del rapporto tra fisica e chimica, della fisica classica e della fisica moderna. Non che io sia in grado di spiegare la fisica a chicchessia, però ci proverò. Quello che mi preme è divulgare il più possibile, con un mezzo veloce, gratuito e senza secondi fini, un po’ di quella conoscenza che purtroppo si sta perdendo. Come, dirà il mio giovane lettore, proprio adesso che abbiamo dei mezzi di comunicazione così potenti, rischiamo di perdere la conoscenza?

Intanto facciamo una considerazione: dobbiamo fare una distinzione tra messaggio e canale. Per discutere della situazione attuale dell’informazione dobbiamo considerare due fattori: l’organizzazione dei canali rispetto al passato e il numero dei messaggi trasmissibili. Per quanto riguarda i canali stiamo assistendo da anni a una rivoluzione continua e sappiamo che in pochi secondi possiamo trasmettere un messaggio a New York e ricevere risposta. Esiste una (finta) teoria a riguardo, di un certo Backwards (toh!), che auspica un ritorno al passato. Secondo il tizio in questione, la comunicazione è entrata in crisi con l’invenzione del telecomando. Con esso, lo spettatore può azzerare l’audio, seguire solo il video e, attraverso lo zapping, crearsi una propria sequenza visiva. L’introduzione dei sistemi di videoregistrazione hanno permesso poi di liberarsi dalla linearità della diretta. A questo punto lo spettatore può guardare una registrazione senza audio e accompagnare le immagini con il suono di una musica: praticamente si torna al cinema muto. Il passo successivo è stato dettato dall’eliminazione del movimento delle immagini: rispetto a uno strumento molto più arretrato come la televisione, internet, soprattutto all’inizio, dava immagini fisse, monocolore e a bassa definizione. Con la posta elettronica si è quindi arrivati alla sola comunicazione alfabetica, in pratica tornando allo stadio dei Fenici. Ma c’è di più: fino a poco tempo fa le trasmissioni viaggiavano via etere, con tutti i disturbi e le difficoltà che ne conseguivano. Le piattaforme digitali e Internet utilizzano invece la trasmissione via cavo telefonico e questo fatto sancisce la curiosa vittoria di Meucci su Marconi.

Per quanto riguarda il numero dei messaggi è del tutto evidente che tende a crescere in forma esponenziale. Il problema non è solo legato all’abbondanza delle informazioni, ma anche alla possibilità di selezionare la loro attendibilità. Una volta Umberto Eco ha fatto un esperimento: ha digitato la parola “Graal” in un motore di ricerca e ha analizzato i primi 70 siti segnalati. Sessantotto di questi erano puro ciarpame, materiale neonazista o pubblicitario; uno era credibile, ma conteneva una semplice descrizione da enciclopedia; uno conteneva un piccolo saggio preciso, ma privo di particolare interesse. Come può un giovane studente decidere quale tra questi siti abbia notizie utili? “Come totalità di contenuti disponibili in modo disordinato, non filtrato e non organizzato, internet permette a ciascuno di costruirsi una propria enciclopedia, intesa come sistema attraverso il quale una cultura filtra, conserva ed elimina le informazioni. In teoria, quindi, si può arrivare all’esistenza di sei miliardi di enciclopedie differenti” (tratto da “La cultura è anche capacità di filtrare le informazioni”, di Umberto Eco, lezione tenuta presso l’università di Pisa nel 2004).

Ma torniamo a noi. Alla fisica, meglio. La fisica è la scienza della natura nel senso più ampio del termine. Il termine “fisica” deriva dal neutro plurale latino physica, a sua volta derivante dal greco τὰ φυσικά [tà physiká], ovvero “le cose naturali” e da φύσις [physis], “natura”. Lo scopo della fisica è lo studio dei fenomeni naturali, ossia di tutti gli eventi che possano essere descritti ovvero quantificati attraverso grandezze idonee, per stabilire princìpi e leggi che regolano le interazioni tra le grandezze stesse e rendano conto delle loro reciproche variazioni. Quest’obiettivo è raggiunto attraverso l’applicazione rigorosa del metodo scientifico e spesso la fornitura finale di uno schema semplificato, o modello, del fenomeno descritto. L’insieme di principi e leggi fisiche relative ad una certa classe di fenomeni osservati definiscono una teoria fisica deduttiva, coerente e relativamente autoconsistente, costruita tipicamente a partire dall’induzione sperimentale.

Nota come la regina tra le scienze, originariamente la fisica era una branca della filosofia e fino al XVIII secolo veniva infatti chiamata “filosofia naturale”. Con Galileo e con la nascita del “metodo”, la fisica si è evoluta e sviluppata tanto da diventare una disciplina a sé. Il “metodo scientifico”, detto anche “metodo sperimentale”, prevede che all’osservazione (del fenomeno preso in considerazione), segua la formulazione di un’ipotesi. La validità di questa ipotesi si prova attraverso esperimenti e come fa la matematica con gli assiomi e i postulati, anche la fisica usa dei princìpi fondamentali sui quali basarsi per proporre le ipotesi. Una volta confermata l’ipotesi attraverso l’osservazione e la sperimentazione, quello che ne consegue è chiamata “legge fisica”. Una legge fisica, a differenza di una dimostrazione matematica, non è mai certamente vera (lo so, può sembrare assurdo…). Infatti le teorie fisiche, ma il discorso può valere per qualunque legge scientifica, in quanto edificata con processi conoscitivi di tipo induttivo-sperimentale, sono di norma provvisorie, ma non nel senso comune del termine. Una teoria fisica è sempre valida finché non viene confutata, ovvero finché non viene osservato un fenomeno in contraddizione con tale teoria o se viene realizzato un esperimento che ne prova la non veridicità. Un insieme di leggi vanno a formare una “teoria fisica”, in modo da poter spiegare più fenomeni sotto una stessa unica legge. Anche una teoria è valida finché non viene confutata o sostituita da una nuova che abbia una maggiore accuratezza.

Il fulcro della fisica sono i concetti di grandezza fisica e di misura.

Nel 1993 sul “Vocabolario Internazionale di Metrologia” una grandezza era definita come “la proprietà misurabile di un fenomeno, corpo o sostanza, che può essere distinta qualitativamente e determinata quantitativamente”; pertanto, la misurazione non può essere applicata alle proprietà nominali, le quali non possono pertanto essere definite “grandezze”. Nella definizione di “grandezza” il termine “riferimento” può essere una unità di misura, una procedura di misura, o un materiale di riferimento, o una loro combinazione. Sebbene in base a questa definizione, il concetto di “grandezza” coincida con quello di “grandezza fisica scalare”, può essere considerato “grandezza” anche un vettore le cui componenti siano grandezze. Il concetto di grandezza, inoltre, può essere specificato progressivamente in vari livelli di concetti specifici. Per esempio, il concetto della grandezza “lunghezza” può essere specificato, per esempio, in quelle di

  • “Raggio” (il quale può essere specificato a sua volta in quello, per esempio, di “raggio di un cerchio”);
  • “Lunghezza d’onda” (il quale può essere specificato a sua volta in quello, per esempio, di “lunghezza d’onda della radiazione D del sodio”).

Nel SI (Sistema internazionale di unità di misura), adottato per legge in Italia dal 1976 e obbligatorio negli atti pubblici, le grandezze si dividono in 7 grandezze base e numerose grandezze derivate dalle precedenti. Condizione necessaria perché una proprietà sia misurabile è quella di poter stabilire una relazione d’ordine fra quelle proprietà in sistemi diversi: poter giudicare quale sistema esibisce “più” proprietà dell’altro. Se tale confronto può essere basato sul rapporto fra le proprietà dei due sistemi, allora la classe di equivalenza di quelle proprietà costituisce una grandezza fisica. In questo caso, è possibile scegliere la proprietà di un particolare sistema ed eleggerla a unità di misura per quella grandezza fisica. Fissata l’unità di misura, la quantità di tale grandezza per un qualsiasi altro sistema potrà dunque essere univocamente specificata da un valore numerico ottenuto dal rapporto con la proprietà scelta come campione di riferimento. Ad esempio, la lunghezza di un oggetto può essere confrontata con quella di un altro oggetto: la lunghezza costituisce una grandezza fisica perché è possibile stabilire la proporzione, ovvero il rapporto fra la lunghezza specifica di due oggetti. Possiamo allora scegliere la lunghezza di un oggetto particolare, come il metro campione, e utilizzarla come unità di misura per la lunghezza di qualsiasi altro oggetto. Di seguito le grandezze fondamentali:

Grandezza fisica Simbolo dimensionale Nome dell’unità SI Simbolo dell’unità SI
lunghezza L metro m
massa M chilogrammo kg
tempo, durata T secondo s
corrente elettrica I ampere A
temperatura T kelvin K
quantità di sostanza N mole mol
intensità luminosa J candela/lumen Cd

(http://www.bipm.org/utils/common/pdf/si_brochure_8_en.pdf)

Tutte le altre grandezze fisiche e le relative unità di misura possono essere derivate dalle grandezze fisiche e dalle unità di misura riportate sopra.

La notazione scientifica consente di scrivere in modo compatto gli esiti di misure espressi da numeri molto grandi o molto piccoli. Esiste anche un’altra possibilità che è quella di utilizzare i multipli e i sottomultipli dell’unità del Sistema Internazionale. Per indicare questi multipli e sottomultipli, si utilizzano dei prefissi standard che valgono per tutte le altre unità del Sistema Internazionale. Ad ogni prefisso corrisponde un ben preciso fattore di conversione. Un altro vantaggio della notazione scientifica risiede nella facilità con cui si possono eseguire operazioni che coinvolgono numeri molto grandi oppure molto piccoli, che compaiono spesso in fisica, soprattutto quando ci forziamo ad usare sempre le unità del Sistema Internazionale. Ad esempio, la distanza tra la Terra e il Sole, espressa in metri, è pari a 1,5 · 1011 m. La potenza di 10 più vicina a un numero scritto in notazione scientifica prende anche il nome di ordine di grandezza. Ad esempio possiamo dire che l’ordine di grandezza della distanza Terra-Sole è pari a 1011 m. Nella seguente tabella riporto il fattore di conversione che corrisponde ai prefissi più comunemente utilizzati in fisica:

Nome Simbolo Valore
giga (G) 109
mega (M) 106
kilo (k) 103
etto (h) 102
deca (da) 101
deci (d) 10−1
centi (c) 10-2
milli (m) 10-3
micro (µ) 10-6
nano (n) 10-9

Ad esempio 1 centimetro (cm) corrisponde a 10-2 m, 1 millisecondo (ms) equivale a 10-3 s e così via. (Ho introdotto questo concetto per rendere leggibile la tabella che seguirà).

Come dicevo, ogni altra grandezza fisica è omogenea a un prodotto di potenze di grandezze fondamentali detto dimensione (fisica), e grandezze (unità di misura) con la stessa dimensione sono fra loro omogenee per transitività, anche se solo alcune loro combinazioni hanno senso fisicamente. Ad esempio, se vogliamo indicare un’area, che è il prodotto di due quantità lineari, useremo il m2 (metro quadro), mentre per la velocità dovremo calcolare quanto spazio viene percorso nell’unità di tempo e useremo il m/s (metro al secondo). Qui di seguito le principali grandezze derivate.

Grandezza fisica Simbolo dellagrandezza

fisica

Nome dell’unità SI Simbolo dell’unità SI Equivalenza in termini di unità fondamentali SI
frequenza f, ν hertz Hz s−1
forza F newton N kg · m · s−2
pressione p pascal Pa N · m−2  kg · m−1 · s−2
energia, lavoro E, Q joule J N · m  kg · m2 · s−2
potenza, flusso radiante P, W watt W J · s−1  kg · m2 · s−3
carica elettrica, quantità di elettricità q coulomb C A · s
differenza di potenziale, forza elettromotrice, tensione V, E volt V J · C−1  m2 · kg · s−3 · A−1
resistenza elettrica R ohm Ω V · A−1  m2 · kg · s−3 · A−2
conduttanza elettrica G siemens S A · V−1  s3 · A2 · m−2 · kg−1
capacità elettrica C farad F C · V−1  s4 · A2 · m−2 · kg−1
densità di flusso magnetico B tesla T V · s · m−2  kg · s−2 · A−1
flusso magnetico Φ(B) weber Wb V · s  m2 · kg · s−2 · A−1
induttanza L henry H V · s · A−1  m2 · kg · s−2 · A−2
temperatura Celsius T grado Celsius °C K
angolo piano φ, θ radiante rad 1  m · m−1
angolo solido Ω steradiante sr 1  m2 · m−2
flusso luminoso lumen lm cd · sr
illuminamento lux lx cd · sr · m−2
attività riferita a un radionuclide A becquerel Bq s−1
dose assorbita D gray Gy J · kg−1  m2 · s−2
dose equivalente H sievert Sv J · kg−1  m2 · s−2
dose efficace E
attività catalitica katal kat mol · s−1
area A metro quadro m2
volume V metro cubo m3
velocità v metro al secondo m/s m · s−1
velocità angolare ω s−1
rad · s−1
accelerazione a m · s−2
momento meccanico N · m  m2 · kg · s−2
numero d’onda n m−1
densità ρ chilogrammo al metro cubo kg/m³ kg · m−3
volume specifico m3 · kg−1
molarità SI mol · dm−3
volume molare Vm m3 · mol−1
capacità termica, entropia C, S J · K−1  m2 · kg · s−2 · K−1
calore molare, entropia molare Cm, Sm J · K−1 · mol−1  m2 · kg · s−2 · K−1 · mol−1
calore specifico, entropia specifica c, s J · K−1 · kg−1  m2 · s−2 · K−1
energia molare Em J · mol−1  m2 · kg · s−2 · mol−1
energia specifica e J · kg−1  m2 · s−2
densità di energia U J · m−3  m−1 · kg · s−2
tensione superficiale σ N · m−1  J · m−2
 kg · s−2
densità di flusso calorico, irradianza σ W · m−2  kg · s−3
conduttività termica W · m−1 · K−1  m · kg · s−3 · K−1
viscosità cinematica η m2 · s−1
viscosità dinamica ρ N · s · m−2  Pa · s
 m−1 · kg · s−1
densità di carica elettrica C · m−3  m−3 · s · A
densità di corrente elettrica j A · m−2
conduttività elettrica ρ S · m−1  m−3 · kg−1 · s3 · A2
conduttività molare ρ S · m2 · mol−1  kg−1 · mol−1 · s3 · A2
permittività elettrica ε F · m−1  m−3 · kg−1 · s4 · A2
permeabilità magnetica μ H · m−1  m · kg · s−2 · A−2
(intensità) di campo elettrico F, E V · m−1  m · kg · s−3 · A−1
(intensità) di campo magnetico H A · m−1
magnetizzazione M A · m−1
luminanza cd · m−2
esposizione (raggi X e gamma) C · kg−1  kg−1 · s · A
tasso di dose assorbita Gy · s−1  m2 · s−3

Le leggi fisiche, quindi, sono generalmente espresse come relazioni matematiche tra grandezze che vengono verificate attraverso misure. Il “metodo scientifico”, attraverso questo modo di ragionare, raggiunge la conoscenza della realtà che ci circonda in modo verificabile e oggettivo. A differenza dal metodo aristotelico usa la sperimentazione e quindi raccoglie prove attraverso l’osservazione, infatti Galileo scrisse:

« […] sempre se ne sta su conclusioni naturali, attenenti a i moti celesti, trattate con astronomiche e geometriche dimostrazioni, fondate prima sopra sensate esperienze ed accuratissime osservazioni. […]. Stante, dunque, ciò, mi par che nelle dispute di problemi naturali non si dovrebbe cominciare dalle autorità di luoghi delle Scritture, ma dalle sensate esperienze e dalle dimostrazioni necessarie »

(Galileo Galilei, Lettera a madama Cristina di Lorena granduchessa di Toscana)

In pratica, per scrivere una legge scientifica, in particolare una legge fisica, bisogna seguire degli step ciclici, più o meno così: si osserva il fenomeno fisico (qualsiasi avvenimento che coinvolga grandezze fisiche, che, come abbiamo visto, sono proprietà misurabili); si elabora una teoria e si formula una previsione che segua la teoria elaborata. A volte le ipotesi vengono fatte semplificando la situazione come è nella realtà, ad esempio trascurando l’attrito o la presenza dell’aria. A questo punto si esegue l’esperimento, ripetendo in condizioni controllate le osservazioni e le misurazioni. Infine, si analizzano i dati e si verifica se i risultati siano o no in linea con l’ipotesi iniziale. Tutti gli studenti delle superiori ad indirizzo scientifico che hanno la fortuna di avere un laboratorio hanno un po’ di dimestichezza con questa metodologia.

Facciamo un esempio. L’acqua ha una densità maggiore o minore del vino? Intuitivamente la risposta (forse) la sapete già; ma proviamo a seguire il “metodo”. Intanto procuriamoci due bicchieri uguali, possibilmente di plastica rigida e trasparenti e un cartoncino di plastica rigido, oltre ovviamente a acqua e vino. Riempiamo i bicchieri, uno con acqua e uno con vino, fino a farli traboccare e appoggiamo il foglietto di carta sopra al bicchiere contenente il vino. Ora capovolgiamo velocemente il bicchiere di vino e sistemiamolo sopra a quello pieno d’acqua: sfiliamo quindi il foglietto e…voilà, il vino galleggia sull’acqua!

Da questo esperimento si capisce che il vino ha una densità un po’ più bassa di quella dell’acqua, inoltre non esce dal bicchiere, mentre lo capovolgiamo, perché la pressione verso l’alto esercitata dall’aria sul cartoncino di plastica è talmente grande da riuscire a sostenere il peso della colonna di liquido.

Questo è uno dei tanti esperimenti che si possono fare. Ovviamente vanno prese le misure, calcolati quanti litri sono coinvolti, e così via. In rete si possono trovare questo (molto semplice) e tanti altri esempi. Uno degli esperimenti di fisica i cui filmati spopolano su Internet è quello in cui si prende un acino di uva bianca, lo si taglia quasi in due lasciando i due pezzi uniti da un lembo e poi lo si mette nel microonde ma solo per 5-6 secondi (non uno di più, altrimenti senz’acqua il forno si danneggia!). Si crea un plasma luminoso molto spettacolare! Vedere (http://www.pmichaud.com/grape/) per credere!

In questo articolo abbiamo visto l’introduzione a quello che è il “metodo scientifico”. La prossima volta vedremo come è suddivisa la fisica e soprattutto la differenza tra fisica e chimica.

Aggiornamento.

Come mi ha fatto notare un amico (vedi commenti), manca il litro! In effetti il litro, come altre unità di misura (il minuto, l’ettaro) sono unità che vengono accettate accanto a quelle ufficiali del SI in quanto il loro uso è tutt’oggi molto diffuso in tutta la popolazione anche non di ambiente scientifico. Il loro uso è tollerato per permettere agli studiosi di far capire le loro ricerche a un pubblico molto ampio, anche di non esperti nel settore. Segue tabellina.

Nome Simbolo Equivalenza in termini di unità fondamentali SI
minuto min 1 min = 60 s
ora h 1 h = 60 min = 3 600 s
giorno d 1 d = 24 h = 1440 min = 86 400 s
litro l, L 1 L = 1 dm3 = 10−3 m3
grado ° 1º = (π/180) rad
minuto primo 1′ = (1/60)° = (π/10 800) rad
minuto secondo 1″ = (1/60)′ = (π/648 000) rad
ettaro ha 1 ha = 1 hm2 = 104 m2
tonnellata t 1 t = 103 kg = 106 g

Poi vi sono altre unità di misura, vedi angstrom, nodo (velocità in mare), che sono di uso commerciale ma non sono utili nella notazione scientifica. Altre ancora, come l’elletronvolt o la UA (unità astronomica) sono accettate perché quelle previste dal SI sono ricavate mediante relazioni fisiche che includono costanti non conosciute con precisione sufficiente. Consiglio la lettura di http://www.bipm.org/en/publications/si-brochure/section2-2.html.

Torna al menu

Introduzione alla Fisica parte seconda

2

Heisenberg sta viaggiando a grande velocità con la sua auto, quando viene fermato da un vigile: «Ma lei lo sa a che velocità stava andando?» «No, ma sapevo benissimo dove mi trovavo!» (anonimo)

Sono stato molti anni nell’Esercito e una delle cose più divertenti in assoluto, tra le attività svolte in quel periodo, era la “gara topografica”. Certo, ora si chiama “orienteering” o “orientamento”, ma vi assicuro che è la stessa cosa. L’unica differenza è che la facevamo in divisa mimetica con fucile e zainetto (pesantissimo) sulle spalle. A parte i mille episodi accaduti durante le gare, ricordo che una delle lezioni teoriche era incentrata sulla “misurazione indiretta delle distanze”. I metodi di misura indiretta delle distanze (oggi quasi del tutto abbandonati) consistono nel ricavare la distanza dalla misura di un’altra grandezza (un angolo, o un’altra distanza), legata alla distanza incognita da una formula geometrica. Le tecniche si differenziano ma sono tutte basate sul cosiddetto angolo parallattico (dal greco παραλλακτικός, parallaktikós, relativo alla parallasse). La parallasse (dal gr. παράλλαξις, paràllaxis, “mutamento, deviazione”, derivato da παραλλάσσω, parallàsso, “cambiare, spostare”, composto di παρα, “verso” e ἀλλάσσω, “mutare”) è il fenomeno per cui un oggetto sembra spostarsi rispetto allo sfondo se si cambia il punto di osservazione. Da un punto di vista quantitativo, con il termine parallasse si indica il valore dell’angolo di spostamento.

Ora, misurare un oggetto distante a occhio non è semplice, ma una volta imparati un po’ di trucchetti si può fare anche bella figura con le ragazze (cosa che al tempo era di vitale importanza, non potendo io puntare solo sulla bellezza…). Guardate ora la figura che segue.

Iparallx

Allungate il braccio in avanti ed estendete il pollice, con l’unghia rivolta verso i vostri occhi. Chiudete un occhio (A’) e spostate il pollice in modo che, guardando con l’occhio aperto (B’), possiate vedere il pollice che copre l’oggetto A in questione. Successivamente aprite l’occhio che prima tenevate chiuso (A’) e chiudete quello (B’) con cui guardavate prima, senza spostare il pollice. Vi sembrerà che il pollice si sia mosso: infatti non si trova più davanti all’oggetto A, ma davanti a un altro punto alla stessa distanza da voi, indicato con B nel disegno. Fate una stima della distanza reale tra A e B, confrontandola con le altezze degli alberi, le dimensioni di un edificio, la distanza tra i tralicci dell’alta tensione, la lunghezza delle automobili, ecc. La distanza a cui si trova l’oggetto A da voi è 10 volte la distanza AB.

E perché tutto questo? Poiché, anche se ogni persona ha una taglia diversa, le proporzioni del corpo umano sono in media piuttosto costanti, e per la maggior parte delle persone l’angolo tra le linee che vanno dagli occhi (A’,B’) al pollice con il braccio teso è di circa 6°, abbastanza vicino al valore 5,73°, da cui si ricava il rapporto 1:10 alla base del calcolo. Questo angolo è la parallasse del vostro pollice, visto dai due occhi. Il triangolo A’B’C ha le stesse proporzioni del triangolo molto più grande ABC (cioè i due triangoli sono simili), e quindi, se la distanza B’C fino al vostro pollice è 10 volte la distanza A’B’ tra i due occhi, anche la distanza AC fino all’oggetto lontano è 10 volte la distanza AB.

Ora che vi ho dato uno strumento per fare colpo sulle ragazze, torniamo a noi. Gli antichi, ovviamente, misuravano in principio le cose a occhio o affidandosi a strumenti di fortuna, poi affinarono le tecniche.

La prima volta che fu realizzata una misurazione importante (sia dal punto di vista quantitativo che qualitativo) fu nel 240 a.C. circa. Eratostene di Cirene (275 a.C. – 195 a.C.) era il direttore della biblioteca di Alessandria, maggiore istituzione scientifica del mondo allora conosciuto. Alcuni tra i lavori di Eratostene trattavano l’antica storia egiziana, ma il suo contributo principale in questo campo consistette nel primo tentativo di fissare su base scientifica una precisa cronologia per la storia greca. Era anche molto curioso e osservò che a Siene (una città dell’antico Egitto, attuale Assuan) a mezzogiorno del solstizio d’estate il Sole illuminava il fondo dei pozzi. Questo fenomeno dipendeva dal fatto che, trovandosi su un tropico, i raggi del Sole cadevano esattamente perpendicolari alla città. Quindi, in quel momento, un bastone piantato verticalmente a terra non proiettava nessuna ombra: il sole era allo zenit. Nello stesso giorno Eratostene fece misurare l’ombra ad Alessandria, una città che, secondo le sue conoscenze, si trovava a nord di Siene, sullo stesso meridiano, a una distanza di 5.000 stadi. Grazie a tale misurazione egli stabilì che la direzione dei raggi solari formava un angolo di 7,2° con la verticale, cioè 1/50 di un angolo giro. Da questo esperimento Eratostene dedusse che la circonferenza della Terra doveva essere 50 volte la distanza tra Alessandria e Siene, quindi 257.000 stadi, equivalenti a 39.400 km (considerando che ora abbiamo la misura di circa 40.000 km, si trattava di un errore piccolissimo!!!).

Purtroppo, come spesso accade, i risultati di Eratostene non vennero giudicati validi e un po’ di anni dopo, un astronomo, Posidonio di Apamea (135 a.C. – 50 a.C.), effettuò un’altra misurazione: la circonferenza della Terra, stimata da Posidonio, era di circa 28.000 km, inferiore a quella più vicina al reale ottenuta un secolo e mezzo prima da Eratostene. Questo valore fu ritenuto valido per tutti i secoli successivi e fu proprio su quel valore che Cristoforo Colombo basò la sua idea di circumnavigare il globo in pochi giorni. Magari, se avesse saputo di dover percorrere altri 12.000 km, non sarebbe partito per il suo viaggio. Fu solo quando Magellano compì finalmente il giro della terra che si scoprì che Eratostene ci era andato molto più vicino.

Abbiamo visto, in “Introduzione alla Fisica”, che cos’è la fisica e come si struttura il “metodo sperimentale”; inoltre abbiamo accennato le unità di misura principali che si usano in fisica. Oggi vedremo come si è arrivati a determinarle.

Quando studiamo un fenomeno, la cosa più importante è individuare le caratteristiche essenziali e quali gli aspetti casuali, così che lo studio raggiunga risultati completi e senza possibilità di interpretazione. Diceva Trilussa riferendosi alla statistica, che non c’entra con la fisica ma fa capire come con i numeri si possa spesso sbagliare:

Sai ched’è la statistica? È ’ na cosa/che serve pe’fa’ un conto in generale
de la gente che nasce, che sta male,/che more, che va in carcere e che sposa.
Ma pe’ me la statistica curiosa/è dove c’entra la percentuale,
pe’ via che, lì, la media è sempre eguale/puro co’la persona bisognosa.
Me spiego: da li conti che se fanno/secondo le statistiche d’adesso
risurta che te tocca un pollo all’anno:/e, se nun entra ne le spese tue,
t’entra ne la statistica lo stesso/perché c’è un antro che ne magna due.

Quindi con i numeri bisogna fare attenzione, soprattutto se non si è del mestiere ed è per quello che la fisica, e la scienza in generale, ha fissato delle unità di misura. Definire una grandezza fisica significa descriverne in modo univoco ed oggettivo il significato; misurare una grandezza fisica significa attribuire ad essa un preciso valore numerico.

Un esempio. Vogliamo misurare un tavolo per andarne a comprare uno delle stesse dimensioni e non abbiamo strumenti di misura a portata di mano. Prendiamo come misura di lunghezza un cellulare e fissiamo una unità di misura: il Cel. Se vogliamo prendere le misure del tavolo, non dobbiamo fare altro che porre il cellulare lungo i tre lati (larghezza, lunghezza e altezza) e avremo le misure del nostro tavolo espresse in Cel. Se ad esempio, un lato è lungo 8 Cel, uno 7 Cel e il tavolo è alto 5 Cel, possiamo andare in negozio e confrontare il nostro campione con il tavolo da comprare.

Ovviamente se ognuno facesse così, occorrerebbero tanti campioni quante sono le grandezze fisiche. Ma come vedremo oggi, gli antichi sono partiti proprio così, usando oggetti comuni e realizzando con quelli le unità di misura. La necessità di standardizzare le misure nacque verso la fine del Medioevo in quanto proprio in quel periodo nasceva il commercio “globale”. Immaginate la difficoltà di un giudice che doveva decidere la disputa tra due commercianti che usavano diversi sistemi di peso, magari legati al loro luogo di origine. Quindi si iniziò a pensare di usare delle misure uguali ovunque, alcune delle quali vengono usate ancora oggi. Il miglio, ad esempio deriva dall’espressione latina milia passuum, “migliaia di passi” (singolare: mille passus “mille passi”), che nell’Antica Roma denotava l’unità pari a mille passi (1 passo = 1,48 metri). Per gli antichi romani il passus era inteso come la distanza tra il punto di distacco e quello di appoggio di uno stesso piede durante il cammino, quindi il doppio rispetto all’accezione moderna. O il pollice, la iarda e il piede, tutti riferiti a misure anatomiche, facevano parte del Sistema imperiale Britannico (un sistema di unità di misura definito dal British Weights and Measures Act del 1824) e sono tuttora utilizzati nei paesi di cultura anglosassone, come Regno Unito e Stati Uniti.

Durante la Rivoluzione Francese, Napoleone introdusse un nuovo sistema di misura basato sul sistema decimale. L’unità di lunghezza che fu introdotta fu il metro, che equivale all’incirca ad un iarda ma, anziché essere diviso in piedi e pollici (1 iarda = 3 piedi = 36 pollici), è diviso in decimi (decimetri), centesimi (centimetri), millesimi (millimetri) e così via. Sicuramente più comodo che dover ricordare a memoria le proporzioni. L’unità di massa divenne il chilogrammo, che è la massa di un decimetro cubo di acqua. Il sistema venne chiamato “Système International d’Unités” e con il tempo è stato ovviamente migliorato. La prima definizione di metro risale ad una risoluzione effettuata dell’Assemblea Nazionale francese alla fine del XVIII secolo, in piena Rivoluzione. Il metro fu allora fissato, su proposta dell’Accademia delle Scienze, come la decimilionesima parte della lunghezza di un quadrante di meridiano terrestre.

Nel 1799 venne creato il primo campione standard in platino-iridio del metro. Nel 1961, con un accordo internazionale, l’unità naturale di lunghezza fu definita basandosi sulla radiazione atomica. Siccome tutti gli atomi di una certa specie sono identici, anche le loro radiazioni saranno identiche. Perciò una definizione atomica di lunghezza sarà riproducibile ovunque. Il metro quindi venne ridefinito come 1.650.763,73 lunghezze d’onda della luce rosso-arancio emessa da un gas di Kripton (esattamente dell’isotopo 86). Questa definizione, che è consistente con la precedente, ha il vantaggio di essere circa 100 volte più precisa. Col progredire della scienza si ebbero sviluppi successivi finché nel 1983, durante la “17ª Conferenza Generale di Pesi e Misure tenutasi a Parigi, il metro venne ridefinito come la distanza percorsa dalla luce nel vuoto in un intervallo di tempo pari a 1/299.792.458 di secondo.

Il secondo, appunto, è un’altra grandezza fisica fondamentale. Storicamente, il secondo venne definito in termini di rotazione terrestre, come 1/86.400 del giorno solare medio; oggi è lievemente meno di 1/86.400 del giorno medio a causa del lentissimo e impercettibile ma progressivo allungamento delle giornate causato dall’interazione gravitazionale Terra-Luna e dalla forza di marea che quest’ultima esercita sul nostro pianeta. Nel 1956 il Comitato internazionale dei pesi e delle misure definì il secondo in termini di rivoluzione terrestre attorno al Sole in una particolare epoca, poiché si riconobbe che la rotazione terrestre non era sufficientemente uniforme da essere uno standard per il tempo. La definizione era: “la frazione di 1/31.556.925,9747 dell’anno tropico per lo 0 gennaio 1900 alle ore 12 tempo effemeride”. Le effemeridi (o efemeridi, dalla parola greca ἐφημερίς, ephemeris, giornaliero, in latino ephemĕris) sono tabelle che contengono valori calcolati, nel corso di un particolare intervallo di tempo, di diverse grandezze astronomiche, come ad esempio la posizione del Sole e della Luna rispetto alla Terra. Si capisce che così era troppo complesso e poco preciso. L’astronomo americano William Markowitz (1907-1998) e il fisico inglese Louis Essen (1908-1997) determinarono la relazione tra la frequenza dell’atomo di cesio e il secondo. Essi determinarono il movimento orbitale della Luna rispetto alla Terra, dal quale il movimento apparente del Sole può essere riferito, in termini di tempo misurato da un orologio atomico. Come risultato, nel 1967 la tredicesima conferenza generale sui pesi e sulle misure adottò il secondo del Tempo atomico internazionale nel Sistema Internazionale come: “la durata di 9.192.631.770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell’atomo di cesio-133”. Il secondo è l’unità di misura definita con maggiore accuratezza, che è attualmente nell’ordine di 10-12. Per la cronaca, in fisica atomica, l’interazione iperfine è la debole interazione magnetica tra gli elettroni e il nucleo dell’atomo (una volta l’ho spiegata su queste pagine, caro lettore).

Le definizioni originarie di secondo e metro potrebbero però essere in qualche modo fra loro collegate. Esiste infatti una singolare coincidenza tra metro e secondo: se si considera un pendolo semplice lungo un metro, si può verificare che questo batte il secondo, ossia che ogni oscillazione dura approssimativamente quanto l’unità di tempo. Si tratta di una coincidenza sorprendente (che non ha nessuna giustificazione fisica), se si considera che, almeno ufficialmente, le definizioni iniziali delle due unità erano appunto assolutamente indipendenti.

Le successive suddivisioni del tempo (minuti, ore, giorni, settimane, mesi e anni) scopriamo che provengono da culture diverse e da tempi diversi. La settimana, ad esempio, è una creazione babilonese; la divisione dei giorni in 24 ore è un’idea proveniente dalle antiche civiltà mesopotamiche; mentre i mesi così come li conosciamo sono un prodotto dei Romani sotto Cesare e poi sotto Augusto. Ma erano suddivisioni temporali utili all’uomo dell’epoca e perlopiù erano suddivisioni che non richiedevano una precisione assoluta. Il giorno alternato alla notte è un’unità temporale naturale, che ritma la vita vegetale, animale e umana. La parola latina per “giorno” è “dies”, da cui deriva “dì” (usato anche come suffisso nei giorni della settimana: lunedì, martedì…). Si pensa che “dies” possa derivare da “dividere” poiché separa la luce dalle tenebre, tanto è vero che mentre oggi il giorno comincia a mezzanotte e termina con la mezzanotte successiva, nel linguaggio comune la notte di un giorno della settimana si estende sino all’alba del giorno successivo, benché il periodo dopo la mezzanotte non ne faccia parte. Anticamente, invece, il giorno cominciava all’alba o al tramonto. Nell’antico Egitto, in Grecia e a Roma cominciava all’alba. Giulio Cesare, invece, ci informa nel “De bello gallico” che per i Celti il giorno iniziava al tramonto. L’inizio del giorno al tramonto era comune nel medioevo in tutta Europa fin quando, causa il diffondersi degli orologi meccanici, si passò a calcolare il giorno come facciamo noi oggi e si cominciò a festeggiare anche la “vigilia” delle feste, in modo da conservare le precedenti consuetudini, nonostante l’alterazione del calendario. Anche Halloween, ad esempio, viene da una variante scozzese del nome completo All Hallows’ Eve , cioè la notte prima di Ognissanti .

Mentre sulla lunghezza e sul tempo possiamo essere abbastanza “intuitivi”, avendoci a che fare tutti i giorni, sul concetto di massa le cose cambiano. In fisica la definizione di massa (dal greco: μᾶζα, máza, torta d’orzo, quindi grumo di pasta) è una grandezza fisica, cioè una proprietà dei corpi materiali, che determina il loro comportamento dinamico quando sono soggetti all’influenza di forze esterne. In secondo luogo, la massa è una proprietà fondamentale della materia, costituita da unità discrete (in fisica, un corpo materiale può essere studiato come un corpo discreto, in quanto costituito da particelle elementari distinte le une dalle altre, oppure come un corpo continuo, in quanto il numero elevatissimo, la coesione e l’interdipendenza tra queste particelle fanno sparire qualsiasi granularità, almeno a livello macroscopico). Chiaramente, le dimensioni degli atomi sono così piccole che per la vita di tutti i giorni noi possiamo considerare la materia come corpo continuo, ma a livello fondamentale, la natura atomica è importante. Tanto è vero che generalmente il peso di un corpo non coincide con la massa dello stesso: il peso è la misura dell’attrazione gravitazionale (per esempio, della Terra) su di un oggetto; la massa non dipende da quello. Quindi la massa di un oggetto non è la “quantità di materia” in esso presente.

L’unità di misura della massa è il kilogrammo, definito come la massa inerziale di un campione cilindrico di platino-iridio conservato a Sèvres. Il kilogrammo è l’unica unità di misura che ancora oggi fa riferimento a un campione materiale. Per superare questo limite dal 1999 la comunità scientifica, invitata dalla 21a Conferenza generale dei pesi e delle misure, ha avviato le ricerche per legare anche il kilogrammo a una proprietà della materia a livello atomico o a una costante fondamentale. Quindi, se avete aspirazioni di vincere, che so, il premio Nobel, questo potrebbe essere un modo…

Fino ad ora abbiamo visto una delle due varianti del sistema metrico, il sistema MKS (metro-chilogrammo-secondo); ma esiste un altro sistema metrico, il CGS (centimetro-grammo-secondo). Questo sistema nacque da una proposta fatta dal matematico tedesco Carl Friedrich Gauss (1777 – 1855) nel 1832 e nel 1874 venne ampliato dai fisici inglesi James Clerk Maxwell(1831- 1879) e William Thomson (Lord Kelvin, 1824 – 1907)  con l’aggiunta delle unità elettromagnetiche. Gli ordini di grandezza di molte delle unità CGS crearono molti problemi per l’uso pratico. Per questo motivo il sistema CGS non ebbe mai un riconoscimento generale, al di fuori del campo dell’elettrodinamica, e fu gradualmente abbandonato negli anni ottanta del 1800 fino alla sua definitiva sostituzione a metà del XX secolo dal più pratico sistema MKS. Il centimetro e il grammo rimangono in uso all’interno del MKS, specialmente per le definizioni fisiche e per gli esperimenti chimici, dove sono comode le piccole scale per le unità di misura.

In effetti, la fisica non dipende dalle unità di misura usate, per quello si può scegliere quello più conveniente. Ad esempio, quando parliamo di forza o energia, per convenienza si possono introdurre altre unità (nel CGS sono dyne e erg), che sono comunque derivate da lunghezza, massa e tempo; per cui tutto quello di cui abbiamo bisogno sono queste tre unità (metro, chilogrammo e secondo) e ogni altra quantità fisica può essere espressa in base a queste. Le altre unità fondamentali, temperatura termodinamica, rappresentata dal grado Kelvin (simbolo K), la corrente elettrica, con l’ampère (simbolo A), l’intensità luminosa, con la candela (simbolo cd) e la quantità di sostanza, dalla mole (simbolo mol), le vedremo più avanti nella trattazione.

Tutte le quantità fisiche hanno dimensione. Quando ad esempio consideriamo un’equazione che lega quantità fisiche dobbiamo includere le dimensioni di queste quantità. Quando diciamo ”la distanza è uguale alla velocità per il tempo” d =v × t significa che, non solo i numeri devono tornare nella precedente equazione ma anche le unità di misura si devono bilanciare. Inoltre tale equazione è valida in qualunque sistema di unità, quindi la regola è quella di dare sempre le unità quando si scrivono i valori numerici delle quantità fisiche e di controllare sempre le equazioni per assicurarsi che le unità siano le stesse in entrambi i membri (oppure siano equivalenti nel senso che sono legate da un fattore di conversione).

Vediamo un esempio. Un motorino sta viaggiando a 40 km/h. Quanto tempo impiega per fare 5 km? (E’ la prima vota che scrivo un problema in questo blog, non me ne vogliate).

Noi sappiamo che la velocità non è altro che lo spazio che si percorre in un dato tempo. Quindi scriveremo V = S / T (nel nostro caso, 40 km/h). Intanto possiamo convertire i km in metri e le ore in secondi e così la velocità diventa 40.000 m / 3.600 s = 11,1 m/s e lo spazio percorso da 5 km diventa 5.000 m. Da V = S / T ricaviamo che T = S / V cioè il tempo T che stiamo cercando è 5000 m / 11,1 m/s che fa 450 secondi (oppure 7 minuti e 30 secondi). Più che il semplice problema, mi interessava far vedere come nelle operazioni noi esprimiamo anche i valori delle unità di misura che alla fine devono essere coerenti con quello che stiamo cercando. Se cerco una velocità e mi viene fuori uno spazio, vuol dire che c’è stato un errore!

Viste le misure e le unità di misura, parliamo dell’argomento principe, la fisica e di come lo tratteremo sulle pagine di questo blog nei prossimi “capitoli”.

La fisica è una materia molto articolata e possiamo suddividerla in quattro diverse tipologie in base ai fenomeni che vengono studiati:

  • i fenomeni corpuscolari che coinvolgono oggetti dotati di massa propria sia a livello macroscopico che microscopico (meccanica classica e meccanica quantistica) caratterizzandone la cinematica, la dinamica nello spazio-tempo a partire dalla cause che generano il moto (forze) e la loro energia meccanica;
  • i fenomeni ondulatori che coinvolgono i fenomeni di propagazione di energia sotto forma di onde sia a livello macroscopico che microscopico (onde meccaniche, acustica, ottica, elettrodinamica, meccanica quantistica);
  • i fenomeni termici che coinvolgono il trasferimento del calore da un corpo ad un altro (calorimetria e termometria) e la sua trasformazione in lavoro meccanico (termodinamica), comprese nella termologia;
  • i fenomeni elettrici e magnetici stazionari nel tempo che coinvolgono le cariche elettriche (elettricità) e i materiali magnetici.

Oppure la possiamo più semplicemente suddividere in fisica classica e fisica moderna. La fisica classica studia principalmente:

  • la meccanica classica (in cui si comprende l’acustica);
  • la termodinamica;
  • l’elettromagnetismo (in cui si ricomprende l’ottica);
  • la teoria newtoniana della gravità.

Con la fisica moderna, invece, lo studio fisico si incentra su tutti quei fenomeni che avvengono a scala atomica e subatomica o con velocità prossime a quelle della luce; le teorie principali che costituiscono questa nuova fisica sono la meccanica quantistica e la relatività generale. Un’altra classificazione vuole la distinzione tra fisica sperimentale e fisica teorica in base alla suddivisione del processo di indagine scientifica rispettivamente nella fase dell’osservazione dei dati dell’esperimento e della loro successiva interpretazione ed elaborazione all’interno di teorie fisico-matematiche: stretto è dunque il loro legame di collaborazione. Entrambe queste distinzioni possono essere fatte all’interno sia della fisica classica che della fisica moderna.

Come al solito, io seguirò una via tutta mia. E mano a mano aggiungerò pezzi al puzzle che ne verrà fuori. L’importante, per me, è continuare ad imparare e quale miglior modo che scrivendo a degli amici?

Torna al menu

Personalità radioattive

3

Mentre scrivevo “Introduzione alla fisica 2”, pensavo al rapporto che esiste tra la fisica e gli altri rami della conoscenza. Parlando di natura, la fisica ha numerose connessioni con molte altre materie, come la matematica, la statistica, l’informatica o l’ingegneria.

Non solo, essendo materia molto complessa, come accennavo nei precedenti articoli, è suddivisibile in più modi e conta diverse branche (in senso figurato, la branca è la ripartizione in settori diversi di una scienza). Ad esempio, la fisica matematica. La fisica matematica è quella disciplina scientifica che si occupa delle applicazioni della matematica ai problemi della fisica e dello sviluppo di metodi matematici adatti alla formulazione di teorie fisiche e alle relative applicazioni. È una branca della fisica tipicamente teorica. O la fisica atomica, che è invece la branca della fisica che studia l’atomo nella sua interezza ovvero comprendendo nucleo ed elettroni. Oppure la fisica dello stato solido.

La fisica dello stato solido è la più ampia branca della fisica della materia condensata (comunemente detta fisica della materia) e riguarda lo studio delle proprietà dei solidi, sia elettroniche, che meccaniche, ottiche e magnetiche. Il grosso della ricerca teorica e sperimentale della fisica dello stato solido è focalizzato sui cristalli, sia a causa della loro caratteristica struttura atomica periodica, che ne facilita la modellizzazione matematica, che per il loro ampio utilizzo tecnologico. Con il termine stato solido in elettronica ci si riferisce in generale a tutti i dispositivi a semiconduttore. A differenza dei dispositivi elettromeccanici, quali ad esempio i relè, i dispositivi a stato solido non hanno parti meccaniche in movimento. Appartiene alla fisica dello stato solido anche la fisica delle basse temperature la quale studia gli stati della materia a temperature prossime allo zero assoluto e i fenomeni ad essi connessi (ad esempio la superconduttività).

Poi c’è la fisica nucleare, branca della fisica che studia il nucleo atomico nei suoi costituenti protoni e neutroni e le loro interazioni. La fisica nucleare si distingue dalla fisica atomica che invece studia l’atomo, sistema composto dal nucleo atomico e dagli elettroni. La fisica nucleare si distingue a sua volta dalla fisica delle particelle o fisica subnucleare che invece ha come oggetto lo studio delle particelle più piccole del nucleo atomico. A questa si aggiunge la fisica delle particelle elementari, che è la branca della fisica che studia i costituenti fondamentali e le interazioni fondamentali della materia; essa rappresenta la fisica dell’infinitamente piccolo. Talvolta viene anche usata l’espressione fisica delle alte energie, quando si vuole far riferimento allo studio delle interazioni tra particelle elementari che si verificano ad altissima energia e che permettono di creare particelle non presenti in natura in condizioni ordinarie, come avviene con gli acceleratori di particelle.

C’è anche l’astrofisica, mia preferita, che è una scienza che applica la teoria e i metodi delle altre branche della fisica per studiare gli oggetti di cui è composto l’universo, quali ad esempio le stelle, i pianeti, le galassie e i buchi neri. L’astrofisica si differenzia dall’astronomia in quanto l’astronomia si pone come obiettivo la comprensione dei movimenti degli oggetti celesti, mentre l’astrofisica tenta di spiegare l’origine, l’evoluzione e il comportamento degli oggetti celesti stessi, rappresentando quindi la fisica dell’infinitamente grande. Un’altra disciplina con cui l’astrofisica è intimamente correlata è la cosmologia, che ha come oggetto di studio l’origine dell’universo. Ci sono anche altre branche, come la fisica cibernetica, la fisica medica e la geofisica.

Ma soprattutto, la fisica è strettamente connessa alla chimica (la scienza delle molecole) con cui si è sviluppata di pari passo nel corso degli ultimi due secoli. La chimica prende molti concetti dalla fisica, soprattutto nei campi di termodinamica, elettromagnetismo, e meccanica quantistica. Tuttavia i fenomeni chimici sono talmente complessi e vari da costituire una branca del sapere distinta.

Nella chimica, come nella fisica, esiste il concetto di forza come “interazione tra i corpi”. Nel caso della chimica “i corpi” hanno dimensioni dell’ordine dell’angstrom, che è un’unità di lunghezza non appartenente al Sistema internazionale corrispondente a 1×10−10 m; dimensioni rapportabili alle molecole, agli atomi, agli ioni e alle altre particelle di dimensioni ad essi confrontabili. Le forze di interazione tra questi corpi sono i legami chimici (legami intramolecolari) e altre forze di interazione più blande (ad esempio le forze di Van der Waals, di cui abbiamo già parlato in passato).

C’è stata una coppia molto famosa, sia per la fisica che per la chimica, ma partiamo dall’inizio, come sempre…

Henri Antoine Becquerel, nato a Parigi il 15 dicembre 1852, discendeva da una famiglia di scienziati: il nonno era César Antoine Becquerel (ufficiale del Genio con le truppe di Napoleone) e il padre Edmond Alexander Becquerel, ed erano entrambi delle personalità nel mondo degli studi di elettricità, ottica e magnetismo; ricevette quindi un’ottima educazione sia famigliare che scolastica al “Lycée Louis le Grand”.

Entrò alla ”École Polytecnique” nel 1872 e poi studiò ingegneria alla “École Nationale des Ponts et Chaussèes”, ottenendo il titolo di ingegnere nel 1877. Nel 1874 si sposò con Lucie Zoe Jamin, figlia di Jules Jamin, un suo professore di fisica alla “École Polytecnique”, e nel 1878 ebbe un figlio, Jean Antoine, che sarebbe diventato anch’egli un noto scienziato.

Inizialmente, dal 1875 al 1882, si dedicò a ricerche di ottica, in particolare sulla rotazione del piano di polarizzazione della luce mediante campi magnetici, come assistente alla cattedra del Museo di Storia naturale retta prima dal nonno poi dal padre. Nel 1883, seguendo la tradizione familiare, si dedicò allo studio della luce emessa da cristalli fluorescenti o fosforescenti se sottoposti all’infrarosso e nel 1886 all’assorbimento della luce da parte di cristalli, argomento della tesi per il dottorato che ottenne nel 1888.

Nel 1889 fu nominato all’Accademia delle Scienze di Parigi e nel 1892 succedette al padre, sia alla cattedra del Museo di Storia Naturale sia a quella di fisica applicata del “Conservatoire des Arts et Metiers”. Nel 1895 ottenne anche la cattedra alla “École Polytecnique”. Subito dopo la scoperta dei raggi X da parte di Röntgen, nel 1895, discutendo con Henri Poincaré sulla fluorescenza che si verificava sul tubo a vuoto dove veniva colpito dai raggi, decise di intraprendere uno studio sulla relazione tra fluorescenza e raggi X.

Espose al sole dei sali di uranio, che aveva ereditato dal padre, e li pose su di una lastra fotografica schermata da carta nera, notando che la lastra risultava impressionata. Comunicò all’Accademia delle Scienze che “la sostanza fosforescenze emette radiazioni che attraversano la carta opaca”. A causa dell’assenza di sole per alcuni giorni, ripose i suoi campioni, sempre sopra la lastra schermata, in un cassetto e quando li riprese volle sviluppare le lastre notando un intenso annerimento che non si aspettava. In quel momento la sua vita incrociò due persone straordinarie…

Nato a Parigi, Pierre Curie è stato un eminente fisico francese. Era il figlio del dottor Eugène Curie e di Sophie-Claire Depouilly Curie. Fu istruito dal padre, e nella sua prima adolescenza mostrò una forte attitudine per la matematica e la geometria. All’età di 16 anni ottenne la laurea in matematica. A 18 anni completò gli studi con una laurea in fisica, ma non proseguì immediatamente con un dottorato per problemi economici. Lavorò, quindi, come istruttore di laboratorio.

Nel 1880, Pierre e il suo fratello maggiore Jacques (1856–1941) dimostrarono che un potenziale elettrico veniva generato nel momento in cui i cristalli vengono compressi, ovvero la piezoelettricità. Per aiutarsi nel loro lavoro, essi inventarono l’Elettrometro Piezoelettrico al Quarzo. Poco tempo dopo, nel 1881, essi dimostrarono l’effetto inverso: che i cristalli potevano essere soggetti a deformazione se sottoposti all’azione di un campo elettrico. Quasi tutti i circuiti elettronici digitali oggi si basano su questo principio nella forma di oscillatori al cristallo.

Nel 1885 divenne professore alla “École supérieure de physique et de chimie industrielles de la ville de Paris”. Pierre Curie incontrò la sua futura moglie quando le fu presentato da un amico. Ciò che attrasse Pierre fu il fatto che lei non era come le altre ragazze, in quanto dedita alla scienza. Egli le propose di sposarlo, ma lei rifiutò, nonostante anche lei lo amasse. Ella finalmente accettò di sposarlo il 26 luglio 1895.

Nel 1900 divenne professore alla facoltà di fisica e nel 1904 ne divenne titolare.

La lei in questione si chiamava Maria Skłodowska.

Maria Skłodowska nacque a Varsavia, in Polonia, il 7 novembre 1867, quinta figlia dopo tre femmine e un maschio. Il padre era scienziato e insegnante di Fisica, la madre direttrice di scuola. L’istruzione e lo studio erano centrali nell’educazione dei figli, al punto che i due genitori facevano loro da insegnanti anche dopo le ore scolastiche.

Maria svettava su tutti per le sue capacità e intelligenza, ma finito il ginnasio si trovò un ostacolo all’apparenza insormontabile: alle donne l’accesso all’università era proibito. I suoi genitori non erano dello stesso avviso, oltre che dell’idea che uomini e donne dovessero avere naturalmente gli stessi diritti sociali.

Questo pensiero che oggi è (quasi) dato per scontato, non lo era affatto non solo alla fine del XIX secolo, ma anche fino a pochi decenni fa: basti pensare che in Italia le donne hanno potuto votare per la prima volta solo nel 1946, solo settant’anni fa.

Nel 1878 morì di tisi la madre di Maria e il padre, entrato in conflitto con le autorità russe che all’epoca governavano la Polonia, dovette lasciare il suo posto di professore per dirigere una pensione per studenti, quindi vennero a mancare i soldi per far studiare all’estero Maria e Bronia, le due figlie più capaci: le due ragazze iniziarono a seguire i corsi della cosiddetta “università volante”, ossia i corsi universitari clandestini per le donne, in attesa di tempi migliori.

Per Maria non era sufficiente e ebbe un’idea: avrebbe lavorato e con i suoi soldi pagato gli studi da medico a Parigi di Bronia, una delle tre studentesse su mille iscritti del suo anno; poi sarebbe stata Bronia, con il suo lavoro, a pagare gli studi a Maria. L’idea prese piede, e nel 1891 si iscrisse alla facoltà di Fisica dell’università Sorbona di Parigi e cambiò il nome da Maria a Marie.

Marie si laureò in Fisica nel 1893 con risultati eccezionali, al punto da ottenere un premio dalla sua stessa Polonia che le permise di laurearsi anche in Matematica nel 1894.

In quel periodo, come detto, conobbe Pierre.

Era tale e tanto il carisma di Marie, che, quando Becquerel le affidò un lavoro, cioè capire cosa fosse successo a quelle lastre annerite dai minerali, Pierre smise di fare tutto quello che stava facendo per diventare suo collaboratore.

Il primo laboratorio in cui Pierre e Marie svolsero le loro ricerche scientifiche consisteva in un piccolo locale vetrato appartenente alla scuola di Fisica dove lavorava Pierre. Era un magazzino in cui erano ammassati quintali di roba e che fungeva anche da sala delle macchine; era privo di un’installazione elettrica adeguata e l’aria era satura di fumo e umidità, nemici giurati degli strumenti di precisione con cui è necessario fare gli esperimenti.

Ma Marie non si fece distrarre. In quello sgabuzzino della scuola di Fisica insieme a suo marito tentava di capire da dove derivassero quelle radiazioni che Henri Becquerel aveva notato esaminando i sali d’uranio. Il primo scopo che Marie si pose fu quello di misurare il potere dei raggi d’uranio di rendere l’aria conduttrice di elettricità e di scaricare un elettroscopio, di misurare cioè il loro ‘potere di ionizzazione’.

Per ottenere ciò vennero utilizzati una camera di ionizzazione, per rivelare la presenza di particelle ionizzanti, un elettrometro, per misurare differenze di potenziale e un quarzo piezoelettrico. Quest’ultimo strumento era stato inventato da Pierre insieme al fratello Paul Jacques nel 1880.

Dopo poche settimane di esperimenti ed osservazioni, Marie concluse con certezza che le radiazioni emesse dall’uranio non erano influenzate dalla luce o dalla temperatura e nemmeno dalla combinazione chimica dell’uranio; inoltre l’intensità delle radiazioni era proporzionale alla quantità d’uranio presente. Ma, si chiedeva la giovane scienziata, perché questa proprietà dell’uranio di emettere radiazioni non potrebbe appartenere anche ad altri elementi chimici? In fondo la scoperta sull’uranio è stata fatta per puro caso. Così Marie passò ad esaminare, uno per uno, tutti i corpi chimici conosciuti, per arrivare a dar fondamento alla sua intuizione nell’arco di poco tempo: anche il torio possiede la stessa proprietà, alla quale venne dato il nome di ‘radioattività’ e i corpi che ne sono dotati furono chiamati ‘radioelementi’.

Appurato poi che la radioattività è una caratteristica atomica, la fase seguente del lavoro dei Curie consisté nello studio di tutti i corpi composti semplici e dei minerali. Marie si accorse che in alcuni minerali l’intensità di radioattività è fortissima e non poteva essere giustificata dalla minima quantità di torio e uranio in essi contenuta. Non vi era dubbio quindi che doveva esistere un’altra sostanza radioattiva molto più potente di quelle fino ad allora esaminate. Eppure Marie aveva già controllato tutte le sostanze chimiche conosciute. Significava forse che un altro elemento ignoto alla scienza emetteva radiazioni ad alta intensità?

La vita dei Curie trascorse così quasi interamente all’interno del laboratorio, tranne qualche rara pausa per una lunga corsa in bicicletta attraverso i boschi. Pierre intanto insegnava alla scuola di Fisica e guadagnava cinquecento franchi al mese e Marie, dopo la duplice laurea in fisica e matematica, stava studiando per ottenere il dottorato. Il 12 settembre 1897 nacque Irène e le energie e le attenzioni che finora i Curie avevano dedicato esclusivamente alla scienza, le divisero con la loro bambina; tuttavia Marie, com’era nella sua natura, non si risparmiava e riuscì a non chiedere sacrifici né all’una né all’altra delle sue creature. Scrisse alla sorella Bronia:

“…La nostra vita è sempre uguale. Lavoriamo molto, ma dormiamo bene, per cui la nostra salute non ne soffre. La sera la passiamo ad occuparci della piccola. Al mattino la vesto e le do da mangiare; dopo di che posso generalmente uscire verso le nove. Per tutto l’anno non siamo stati né al teatro né a un concerto, né abbiamo fatto una sola visita… Non c’è che la famiglia di cui senta enormemente la mancanza, e soprattutto voi, carissimi miei e papà… Non ho altri motivi di cui lamentarmi, perché la salute non è cattiva, la bambina cresce bene, e io ho il marito migliore che si possa sognare… È un vero dono del cielo… Il nostro lavoro progredisce. Avrò ben presto da fare una conferenza su questo argomento…” (Da una lettera a Bronia del 1899, Eva Curie, Vita della signora Curie, p. 178)

Nel 1898 Marie comunicò all’Accademia delle Scienze che:

“due minerali d’uranio: la pechblenda (ossido d’uranio) e la calcolite (fosfato di rame e d’uranite) sono molto più attivi dello stesso uranio. Il fatto va rilevato e induce a credere che questi minerali possano contenere un elemento nuovo più attivo dell’uranio…” (Dai Resoconti del 12 aprile 1898, ib., p. 165).

La pechblenda in particolare aveva messo in luce un’altissima capacità di emettere radiazioni. D’altra parte la composizione di quel minerale era conosciuta e definita, quindi l’elemento nascosto radioattivo doveva essere presente in quantità talmente ridotte da essere sfuggito a tutti gli esami precedenti.

Il metodo per isolare il corpo radioattivo era molto banale, ma richiedeva una precisione infinita. Si trattava di scomporre il minerale pezzo per pezzo ed eliminare quelle parti che non emettevano radiazioni.

“…Crediamo che la sostanza che abbiamo tratto dalla pechblenda contenga un metallo non ancora segnalato, vicino al bismuto per le sue proprietà analitiche. Se l’esistenza di questo nuovo metallo verrà confermata, noi proponiamo di chiamarlo polonio, dal nome del paese di uno di noi…” (Resoconti, luglio 1898, ib., p. 168).

E ancora:

“Le diverse ragioni che abbiamo enumerate ci spingono a credere che la nuova sostanza radioattiva racchiuda in sé un elemento nuovo, al quale noi ci proponiamo di dare il nome di Radio. La nuova sostanza radioattiva racchiude certamente una fortissima proporzione di bario: non ostante ciò la radioattività è considerevole. La radioattività del radio dev’essere dunque enorme.” (Resoconti, 26 dicembre 1898, ib., p. 170).

Il lavoro dello scienziato ha valore solo se ogni più piccola conclusione raggiunta è supportata da molteplici prove e controprove che la confermano e il radio di Pierre e Marie era stato solo “percepito”, ma non ancora visto ed isolato. Ma come ottenere del radio e del polonio puri? Prima di tutto fu necessario recuperare la pechblenda nella quale si erano ritrovate tracce di quelle sostanze. La pechblenda si estraeva nelle miniere di Sank Joachimsthal in Boemia (ora Repubblica Ceca, le estrazioni sono finite nel 1964) e farla arrivare fino a Parigi significava pagare dei costi altissimi.

D’altra parte i due scienziati non avevano scelta e, dopo avere fatto un rapido conto dei loro risparmi, decisero di farsi inviare almeno ciò che avanzava del minerale dopo che ne era stato estratto l’uranio.

Nel cortile della scuola di Fisica si trovava una baracca di legno una volta adibita a luogo di dissezione dei cadaveri. Il tetto era di vetro, il pavimento di bitume screpolato; un vecchio tavolaccio, una lavagna nera ed una stufa di ghisa arrugginita costituivano l’arredamento e il direttore della scuola non ebbe nessuna difficoltà a cederla ai due sposi un po’ bislacchi (che vedevano comunque migliorare le condizioni del loro luogo di lavoro).

Tutto sembrava andare per il meglio e la seconda fase del lavoro poté avere inizio. Mentre Pierre si occupava di definire sempre più precisamente le qualità del radio, Marie cercava di ottenere sali di radio allo stato puro: “Sono stata indotta a trattare finanche venti chilogrammi di materiale per volta, il che aveva per effetto d’empire la rimessa di grandi vasi pieni di precipitati e di liquidi. Era un lavoro estenuante quello di trasportare i recipienti, di travasare i liquidi e d’agitare, per ore e ore, la materia in ebollizione in un recipiente di ghisa” (ib., p. 176).

In realtà la baracca si rivelò molto più scomoda di quello che avevano pensato. D’estate, i raggi del sole, filtrando attraverso il tetto di vetro, trasformavano il luogo in una serra bollente, d’inverno si gelava e se pioveva, l’acqua entrava dal tetto in più punti; senza contare i venti, che, transitando liberamente nella rimessa, trasportavano e depositavano ovunque polveri di ogni genere, mentre il lavoro di Marie consisteva nell’isolare e purificare il più precisamente possibile i composti chimici.

La maggior parte del lavoro andava comunque svolta all’aperto perché gli strumenti utilizzati non avevano gli sfiatatoi per i gas.

“A quell’epoca noi eravamo interamente assorbiti dal nuovo dominio che s’apriva dinanzi a noi grazie a una scoperta insperata”, racconta Marie. “Nonostante le difficoltà delle nostre condizioni di lavoro, ci sentivamo molto felici. Le nostre giornate trascorrevano nel laboratorio. Nella nostra rimessa così povera regnava una grande tranquillità; a volte, sorvegliando qualche operazione, camminavamo in su e in giù chiacchierando del lavoro presente e di quello futuro; quando avevamo freddo, una tazza di tè calda presa presso la stufa ci confortava. Vivevamo con un’unica preoccupazione, come in un sogno. … Non vedevamo che poche persone nel laboratorio: qualche chimico, qualche fisico veniva di tanto in tanto a trovarci, sia per vedere le nostre esperienze, sia per chiedere qualche consiglio a Pierre Curie… Ed erano allora conversazioni dinanzi alla lavagna, di quelle che lasciano un eccellente ricordo perché agiscono come stimolante dell’interesse scientifico e dell’ardor di lavoro, senza interrompere il corso delle riflessioni e senza turbare quell’atmosfera di pace e di raccoglimento ch’è la vera atmosfera di un laboratorio” (ib., p. 176177).

In questo modo passarono quattro anni durante i quali, in seguito alle frequenti pubblicazioni dei Curie sulle proprietà della radioattività, in tutta Europa si diffuse un profondo interesse per l’argomento. André Debierne, scienziato francese, riuscì ad isolare l’attinio affine al radio e George Sagnac insieme a Pierre Curie portò avanti degli studi sulla carica elettrica trasportata dai raggi secondari dei raggi X.

Come abbiamo visto, le ricerche sulla radioattività alle quali i Marie e Pierre Curie si dedicarono con una incredibile passione e una energia quasi al limite delle loro possibilità fisiche, attirarono l’interesse di tutti gli ambienti scientifici europei. Purtroppo però le difficoltà economiche che i due ricercatori dovettero affrontare furono enormi. Pierre aveva bisogno della cattedra di Fisica alla Sorbona per poter guadagnare una cifra ragguardevole ed allentare il ritmo di vita e di lavoro di entrambi che minacciava di causare cedimenti irreversibili, ma gli mancavano le raccomandazioni necessarie. Lasciò comunque la Scuola Politecnica e venne assunto come professore incaricato al “Physique, Chimie, Scienze naturelle”, che gli permetteva di guadagnare uno stipendio più elevato mentre Marie cominciò ad insegnare fisica alla “Scuola Superiore delle Giovinette di Sèvres”.

Scrisse una sua ex alunna:

“Fino al nostro arrivo a Sèvres avevamo creduto che la fisica si imparasse unicamente sui libri… Tutto cambiò quando avemmo come professore Marie Curie. Quest’abile sperimentatrice fu colpita dalla povertà dei laboratori della scuola di Sèvres e dall’insufficienza dei lavori pratici, e decise di rimediarvi… Spessissimo ella ci portava apparecchi costruiti o modificati dietro suo consiglio, che noi utilizzavamo con lei. Erano apparecchi semplicissimi, la nostra guida però era talmente abile che riuscivamo persino a ottenere le misurazioni, e nulla era più appassionante del discutere, a cose fatte, con lei dei risultati ottenuti in comune… Così la freddezza di Marie Curie, che era soltanto un modo di mascherare la timidezza, nascondeva un’umanità e un calore che non tardammo a scoprire” (E. Cotton, I Curie, p. 4850).

Il ritmo delle giornate comunque era durissimo; il tragitto da Parigi a Sèvres due volte al giorno era lungo ed estenuante e Marie si disperava al pensiero che avrebbe potuto impiegare tutto quel tempo nel suo laboratorio. Tanto più che il radio sembrava voler mantenere a tutti i costi il suo segreto e più questo si ostinava a resistere alla scienza, più Marie aumentava i ritmi di lavoro.

Nel 1902, la battaglia fu vinta e la signora Curie presentò a tutto il mondo un decigrammo di radio puro da lei preparato: il radio esisteva ed aveva un peso atomico di 225. Agli occhi del mondo intero la nuova scoperta apparve prodigiosa. Il radio ha radiazioni la cui intensità è pari a due milioni di volte quelle dell’uranio; solo una pesante lastra di piombo può fermare i suoi raggi.

Produce calore, è luminoso, rende fosforescenti alcuni corpi incapaci di produrre luce spontaneamente e contagia con sua radioattività i corpi con cui viene a contatto; inoltre emette spontaneamente un gas radioattivo, che in seguito è stato chiamato ‘radon’, il quale, isolato e rinchiuso in un’ampolla, si evolve e progressivamente perde la sua radioattività: era la prima volta che corpi considerati inanimati si videro muoversi e la teoria dell’evoluzione della materia si arricchì di nuovi elementi.

Ma la cosa forse più sorprendente di tutte era che il radio era in grado di uccidere le cellule del corpo umano. Scrisse Marie:

“..noi abbiamo avuto sulle mani, durante le ricerche fatte con prodotti molto attivi, azioni varie. Le mani hanno una tendenza generale a squamarsi; le estremità delle dita che hanno tenuto i tubi o le capsule racchiudenti prodotti molto attivi diventano dure e a volte molto doloranti; in uno di noi, l’infiammazione delle estremità è durata una quindicina di giorni ed è terminata con la caduta della pelle, ma la sensibilità dolorosa, in capo a un mese, non è ancora scomparsa” (Vita della signora Curie, p. 202).

Pierre, insieme ad alcuni medici francesi, condusse degli studi su animali esposti alle radiazioni e in un primo tempo si pensò di poter guarire con questo metodo il lupus ed alcune lacerazioni della pelle. L’Accademia delle Scienze concesse ai Curie 20.000 franchi per l’estrazione della materia. La Società generale dei prodotti chimici mise a disposizione la propria struttura per ricavare il radio senza trarne nessun un utile e nel 1904 venne fondata la prima fabbrica per la fornitura del radio.

L’industria del radio in poco tempo si sviluppò in tutto il mondo e i Curie dovettero scegliere se tenere per sé il brevetto di fabbricazione, venderlo a caro prezzo o metterlo a disposizione di tutti.

“D’accordo con me, Pierre Curie rinunciò a trarre un profitto materiale dalla sua scoperta: noi non prendemmo alcun brevetto e pubblicammo senza riserva alcuna i risultati delle nostre ricerche, come il processo di preparazione del radio. Inoltre noi abbiamo dato agli interessati tutte le informazioni che sollecitavano. Questo è stato un grande beneficio per l’industria del radio la quale ha potuto svilupparsi in piena libertà, prima in Francia poi all’estero, fornendo agli scienziati e ai medici i prodotti di cui avevano bisogno” (ib., p. 208).

Marie con la sua scoperta finì anche la sua tesi di dottorato dal titolo “Ricerche sulle sostanze radioattive” e la commissione della Sorbona le accordò il titolo di dottore in scienze fisiche con la menzione “molto onorevole”. Il 10 dicembre 1903 l’Accademia di Scienze di Stoccolma comunicò pubblicamente che il premio Nobel per l’anno in corso era stato attribuito per metà a Henri Becquerel e per metà al signore e alla signora Curie: 70 mila franchi d’oro e la fama a livello mondiale stravolseroo la vita dei due modesti scienziati. Studiosi di tutto il mondo chiedevano la presenza di Monsieur e Madame Curie per essere aggiornati nei dettagli sulla nuova scoperta.

I coniugi appena potevano cercavano di rendere partecipi i loro colleghi di tutto ciò che sapevano, ma rifuggivano con ogni mezzo la celebrazione, le premiazioni, gli elogi di cui avrebbero avuto bisogno semmai durante gli anni durissimi della ricerca:

Siamo inondati di lettere, di visite di fotografi e giornalisti. Si vorrebbe potersi nascondere sotto terra per avere un po’ di pace. Abbiamo ricevuto una proposta dall’America per andare a fare laggiù una serie di conferenze sui nostri lavori. Ci chiedono che somma vorremmo ricevere. Quali che siano le condizioni, la nostra intenzione è di rifiutare. A gran pena abbiamo rifiutato i banchetti che volevano organizzare in nostro onore. Noi rifiutiamo con l’energia della disperazione e la gente capisce che non c’è niente da fare”(ib., p. 215).

La loro vita si fece leggermente più distesa, anche grazie alla situazione economica decisamente migliore. Si concessero qualche mostra di pittura o qualche spettacolo d’avanguardia; partecipavano saltuariamente ai ricevimenti nei circoli degli scienziati e nel frattempo nacque la secondogenita Eve.

All’inizio del 1904 finalmente Pierre ottenne la cattedra di Fisica alla Sorbona, e Marie, che fino a quel momento aveva lavorato gratis e senza che le venisse riconosciuto nessun titolo, venne nominata capo dei lavori di fisica presso la cattedra del marito.

Ma il 19 aprile 1906, la tragedia: Pierre morì travolto da un pesante carro lungo la Senna mentre tornava da una riunione di professori.

Marie era disperata, ma non poteva mollare proprio allora e così prese il posto del marito all’università: fu la prima donna a ricoprire tale incarico;

“Mi viene offerto di prendere la tua successione, Pietro mio, il tuo corso e la direzione del tuo laboratorio. Ho accettato. Non so se sia bene o male. Mi hai detto sovente che avresti voluto ch’io facessi un corso alla Sorbona. E io vorrei per lo meno fare uno sforzo per continuare i lavori. Qualche volta mi sembra che questo mi renderebbe più facile vivere, qualche altra mi sembra d’essere pazza a intraprendere ciò” (ib., p. 257).

Anche il laboratorio di Pierre in Rue Cuvier necessitava di attenzioni e Marie in poco tempo accolse una decina di scienziati apprendisti per iniziare nuovi programmi di ricerca. Al suo fianco c’era l’amico Andrè Debierne con il quale riuscì ad isolare il radiometallo, a studiare i raggi emessi dal polonio e poi da sola scoprì un metodo per dosare il radio.

Per curare alcune malattie infatti, è necessario ottenere millesimi di milligrammo di sostanza e la tradizionale bilancia serve a poco; è invece possibile misurare la quantità di radio tramite le radiazioni che vengono emesse. Venne così creato nel laboratorio un servizio di misurazione del radio a disposizione di tutti quegli scienziati, medici e studiosi che ne abbisognavano.

“La cosa più importante e preziosa del laboratorio era il contatto intimo che si instaurava fra studenti e docenti… Marie Curie era ben capace di comunicare a ciascun ricercatore la propria convinzione che un lavoro coscienzioso è la base indispensabile a qualsiasi ricerca scientifica, che un risultato non fondato non vale assolutamente nulla, mentre, al contrario, uno sforzo laborioso dà un’estrema soddisfazione” (E. Gleditsch, discorso tenuto alla Sorbona in occasione della celebrazione per il 50° anniversario del primo corso di Marie Curie, I Curie, p. 76).

Nel 1910 la signora Curie presentò la sua candidatura per l’ammissione all’Accademia delle Scienze. Il suo rivale era Édouard Eugène Désiré Branly (1844-1940). Una lotta senza pari si scatenò tra i partigiani dell’una e dell’altra parte: “Le donne non possono far parte dell’Istituto”, esclamavano i suoi rivali e il giorno dell’elezione il presidente ordinò ad alta voce all’usciere: “Lasciate entrare tutti, tranne le donne”.

Per un voto Marie non venne eletta, ma, come disse la figlia Eve:

“…nella storia dei Curie, si direbbe che l’estero corregga perpetuamente i gesti della Francia” (ib., p. 281)

e circa un anno dopo, infatti, l’accademia delle Scienze di Stoccolma le conferì il premio Nobel per la Chimica.

Per ironia della sorte Marie, che per sua natura avrebbe desiderato un’esistenza solitaria, riservata e lontana dalle luci della ribalta, fu costretta a fare i conti con la popolarità. Non solo. Suo malgrado, era una delle prime donne che coi suoi meriti era penetrata nel geloso mondo maschile, reclamando all’interno di esso un ruolo di rilievo. E questo non veniva accettato. Scrive ancora la figlia Eve:

“Come una brusca raffica, la cattiveria s’abbatte su di essa e tenta d’annientarla… Maria ch’esercita un mestiere maschile, ha scelto tra gli uomini i propri amici, i propri confidenti. Questo essere eccezionale esercita sui propri intimi, su uno di essi soprattutto, una profonda influenza. Non ci vuole di più!… è accusata di turbare la pace delle famiglie e di disonorare un nome che essa porta splendidamente… Ogni volta che si presenta l’occasione d’infamare questa donna unica, come nei giorni penosi del 1911, o di rifiutarle un titolo… la sua origine le viene bassamente rimproverata: trattata volta a volta come russa, tedesca, ebrea, polacca, essa è la ‘straniera’ venuta a Parigi da usurpatrice, allo scopo di conquistare abusivamente un’alta situazione” (ib., p. 282).

Nel 1914 grazie ai fondi messi a disposizione dall’Università e dall’Istituto Pasteur venne costituito l’Istituto del Radio in Rue Pierre Curie. Esso comprendeva due sezioni: un laboratorio di radioattività che veniva diretto dalla stessa Marie e un laboratorio di ricerche biologiche e di Curieterapia, dove venivano portati avanti gli studi sul cancro. Dopo la fine della guerra, durante la quale Marie insieme alla figlia Irene, si era data da fare per dotare gli ospedali militari di apparecchi per le radiografie e per formare personale che sapesse utilizzarli, l’Istituto prese pieno ritmo.

Con l’instancabile dedizione di sempre Marie lavorava per aumentare la quantità di sali di radio puro nel mondo, per ottenere sempre nuove e rare materie radioattive, per creare istituti per il trattamento di diverse malattie, soprattutto il tumore maligno, e per combattere la troppa anarchia che esisteva nel mondo della scienza, soprattutto per quanto riguardava l’informazione scientifica.

Marie morì il 4 luglio 1934, mentre stava portando a termine un altro dei suoi lavori, stroncata da un’anemia perniciosa aplastica, conseguenza della lunga esposizione alle sostanze radioattive. Ci ha lasciato numerosi testi scientifici, tra i quali, a tratti, emergono parole come queste:

“Sono tra coloro che pensano che la scienza abbia in sé una grande bellezza. Uno scienziato nel laboratorio non è soltanto un tecnico; è anche un bambino posto di fronte a fenomeni naturali che lo impressionano come fossero fiabe. Dobbiamo avere un mezzo per comunicare all’esterno questo sentimento; non dobbiamo lasciar credere che i progressi scientifici si possano ridurre a meccanismi, a macchine, a ingranaggi che, d’altronde, posseggono anch’essi una propria bellezza. Non credo nemmeno che nel nostro mondo lo spirito avventuroso rischi di scomparire. Se, intorno a me, vedo qualcosa di vitale è proprio lo spirito d’avventura che non sembra sradicabile e che assomiglia alla curiosità. Sono incline a credere che esso sia un istinto primitivo dell’umanità, e infatti non vedo come l’umanità avrebbe potuto sussistere se ne fosse stata priva, allo stesso modo in cui non potrebbe sopravvivere una persona completamente priva di memoria. La curiosità e lo spirito d’avventura non sono completamente scomparsi. Troviamo lo spirito d’avventura nei bambini, a tutte le età e a tutti i livelli” (I Curie, p. 93).

Torna al menu

Le forze

4

Tante volte ci poniamo domande le cui risposte non sono semplici. Chi siamo? Dove andiamo? Ci sarà fila in ufficio postale? Ho chiuso la macchina?

Qualche giorno fa, parlando con amici dell’essere spendaccioni, uno di loro ha detto che le sue tasche sono come un buco nero. Io l’ho corretto dicendo “pozzo senza fondo, vorrai dire!” e ne è nata una discussione se il buco nero debba o non debba essere per forza una cosa senza fondo… Conscio del fatto che il mio caro amico non sappia perché il buco nero è nero, mi appresto a spiegarlo su queste pagine e di come il nostro destino sia legato indissolubilmente ad essi (ai buchi neri)… ovviamente, essendo l’argomento molto complesso, toglierò tutta la matematica che sarà possibile togliere e vi chiederò il solito sforzo di pazienza e fiducia. In questa prima parte vi parlerò delle forze, degli atomi e del rapporto che c’è tra loro.

Ci sono quattro diversi modi in cui le varie particelle che compongono l’Universo si influenzano reciprocamente. Ognuno di questi modi è un’interazione, o, per dirlo in termini più comuni, una forza. Alcuni scienziati hanno provato a supporre e a trovare una quinta forza, ma sembra che non esista. Ogni particella è l’origine di una o più forze ed è il centro di una porzione di spazio dal quale la forza si estende, con un’intensità che diminuisce man mano che ci si allontana da tale punto. Questa porzione di spazio è chiamata “campo di forza”. Ogni particella che entra in un campo di forza ne è influenzato e a sua volta lo influenza. Questa influenza si manifesta generalmente con un movimento, che può essere un’attrazione o una repulsione, salvo che non vi sia un impedimento al movimento, detto anche vincolo. Per esempio, qualunque oggetto in grado di produrre un campo di forza gravitazionale, che è legato alla massa dell’oggetto stesso, attirerà a sé gli oggetti di massa minore e verrà attirato da quelli di massa maggiore. Per questo la Terra è attirata dal Sole, ruotandogli intorno, e per questo noi cadiamo se ci spostano la sedia mentre ci stiamo sedendo!

Le quattro forze note sono, in ordine: l’interazione nucleare forte, l’interazione elettromagnetica, l’interazione nucleare debole, l’interazione gravitazionale. Riassumo in tabella 1 le forze, da ora in poi le chiameremo così, con le relative intensità.

Forza Intensità
Nucleare forte 103
Elettromagnetica 1
Nucleare debole 10-11
Gravitazionale 10-39

Tabella 1

Come si vede, la forza nucleare debole e quella gravitazionale sono molto meno intense delle altre due ma poiché quella “debole” si manifesta solo in regioni di spazio molto limitate, cioè a grandezze subatomiche, non serve più citarla in questa esposizione. Quindi da ora in poi, quando parlerò di forza nucleare, intenderò quella “forte”.

Come dicevo, ogni particella genera uno o più campi; oltre che l’intensità di una forza è importante anche il raggio di azione, cioè, come dicevamo, l’estensione del campo di forza. Solo alcune particelle, quindi, saranno soggette a quei campi. Per esempio, la forza nucleare, pur essendo molto intensa, ha un campo di forza molto piccolo, che si estende per circa 10-13 m. Rispondo ad essa solo alcune particelle, chiamate “adroni”, dal greco ἁδρός , adrós cioè “forte”; gli adroni più comuni e più importanti per la struttura dell’Universo sono due, il protone ed il neutrone. Il protone è stato scoperto nel 1914 dal fisico britannico Ernest Rutherford (1871-1937), e il suo nome deriva dalla parola greca πρῶτος, pròtos, cioè “primo”, perché al momento della sua scoperta era l’oggetto più piccolo conosciuto ad avere una carica elettrica positiva. Il neutrone è stato scoperto nel 1932 dal fisico inglese James Chadwick (1891-1974). Non trasporta carica elettrica, positiva o negativa. In altre parole, è elettricamente neutro; da qui il suo nome.

Nel 1911 Rutherford suppose che l’atomo, dal greco ἄτομος, àtomos, indivisibile (unione di ἄ, alfa privativo e τέμνειν, témnein, tagliare), fosse formato da piccolissimi nuclei molto densi e a carica positiva circondati da nuvole di elettroni poste a distanze relativamente grandi dai nuclei. In pratica la visione che tutti noi abbiamo di un atomo si rifa’ a questo modello e assomiglia ad un mini-sistema solare, dove il nucleo è al centro e gli elettroni gli girano intorno. La teoria di Rutherford però mostrava dei difetti (ad esempio non spiegava perché gli elettroni durante il loro moto, con il quale dovrebbero perdere energia, non cadano nel nucleo con conseguente distruzione degli atomi, cosa che per noi non sarebbe piacevolissima…).

Questi difetti furono superati dal modello atomico del fisico danese Niels Henrik David Bohr (1885 – 1962) che fu elaborato tra il 1913 e il 1915. Secondo Bohr l’atomo di ogni elemento è costituito da un nucleo centrale, formato da protoni e neutroni, attorno al quale ruotano gli elettroni. Il movimento degli elettroni avviene però su orbite particolari dette orbite stazionarie. Il movimento degli elettroni sulle orbite avviene senza assorbimento né emissione di energia, quindi l’elettrone ruotando entro un’orbita non perde energia e non può cadere nel nucleo. Le orbite stazionarie sono considerate livelli di energia. Tutte le volte che un elettrone si sposta da un livello di energia maggiore ad uno di energia minore cede energia, viceversa acquista energia quando passa da un livello di energia minore ad uno di energia maggiore. In questi passaggi l’elettrone cede o acquista energia in modo quantizzato, cioè secondo quantità ben definite dette quanti di energia.

In realtà, neanche il modello di Bohr era verosimile: il fisico austriaco Erwin Schrödinger (1887 – 1961) stabilì che gli elettroni non si muovono lungo orbite fisse (come un treno lungo i binari), ma si allontanano e si avvicinano al nucleo, viaggiando a una velocità così elevata (prossima alla velocità della luce, circa 300.000 km al secondo), che è praticamente impossibile stabilire contemporaneamente, in un determinato istante, la loro posizione e la loro velocità. Di ogni elettrone possiamo solamente definire lo spazio tridimensionale intorno al nucleo all’interno del quale abbiamo un’elevata probabilità di trovare l’elettrone stesso. È come se l’elettrone fosse “contenuto” (con alta probabilità) all’interno di una nube o di un guscio (di dimensioni, forma e orientamento spaziale definiti matematicamente), chiamata “orbitale”.

Quello che a noi interessa in questo momento però sono le dimensioni relative, del nucleo e dell’atomo. Per farci un’idea, consideriamo una sfera dal diametro di un metro. Ebbene, un atomo avrà un diametro dieci miliardi di volte più piccolo. Per indicare questa misura si scrive 10-10m, che vuol dire appunto un metro diviso dieci miliardi. Il nucleo, a sua volta, è diecimila volte più piccolo dell’intero atomo, e per indicare le sue dimensioni si scrive 10-14. Insomma tra i diametri del nucleo e dell’atomo c’è un rapporto pari a quello fra la capocchia di uno spillo e la cupola della basilica di San Pietro a Roma.

Poiché il volume è proporzionale al cubo dei diametri, la proporzione tra la materia solida e lo spazio vuoto in un atomo è pari a 10-12: un milionesimo di milionesimo. Questo significa che se dividiamo lo spazio occupato da un atomo in un milione di spazi e poi ognuno di questi spazi in un milione di parti, solo uno di questi sarà occupato da materia, tutti gli altri saranno vuoti! E poiché tutto sulla terra è fatto di atomi, ciò vuol dire che il nostro corpo e la sedia su cui siamo seduti, sono composti da una quantità di spazio vuoto un milione di milioni di volte maggiore dello spazio occupato dalla materia.

Rutherford già aveva ipotizzato nel 1911 che quasi tutta la massa dell’atomo fosse nel nucleo, da cui si capiva che le particelle più massicce, cioè i protoni e i neutroni, si sarebbero dovute trovare nel nucleo. Il numero di protoni varia da un tipo di atomo all’altro, così che, per esempio, l’atomo di Idrogeno ha un solo protone nel nucleo, quello di Elio ne ha due, quello di Litio tre e così via fino all’Uranio che ne ha novantadue. Atomi maggiori difficilmente si trovano liberi in natura, anche se elementi artificiali con più di novantadue protoni sono stati “fabbricati” in laboratorio.

Cosa unisce tutti i protoni nel nucleo, dove essi sono tutti infilati in così poco spazio? Prima del 1935 erano conosciute solo due forze, quella elettromagnetica e quella gravitazionale. La forza gravitazionale è troppo debole per tenere insieme i protoni. La forza elettromagnetica è abbastanza forte, ma può manifestarsi come un’attrazione o come una repulsione. Tra due particelle di carica elettrica opposta (più e meno) c’è un’attrazione. Tra due particelle della stessa carica elettrica (più e più, o meno e meno) c’è una repulsione. I protoni sono tutti carichi positivamente e devono pertanto respingersi; e la repulsione è più intensa quando i protoni sono vicini uno all’altro. In un nucleo atomico, infatti, con i protoni praticamente a contatto, la repulsione elettromagnetica deve essere enormemente forte. Oltre ai protoni, anche i neutroni sono presenti nel nucleo, ma questo non sembra aiutare la situazione. Poiché i neutroni sono privi di carica elettrica, essi non producono né rispondono alla forza elettromagnetica.

Nel 1935 Hideki Yukawa (1907 – 1981), un fisico giapponese, ipotizzò la forza nucleare forte. Dimostrò (non mi addentrerò in particolari che esulano da questa trattazione) che esisteva una forza che riusciva a contrastare la repulsione elettromagnetica. Ma (e c’è sempre un ma a questo punto, sia che si parli di fisica che di film gialli) la forza nucleare ha due caratteristiche importantissime:

  1. Il numero di protoni e neutroni nel nucleo deve rispettare determinate proporzioni;
  2. Il campo di forza di questa interazione è molto piccolo.

Si notò anche che fino a quaranta protoni, la migliore proporzione è di 1:1, cioè un neutrone per ogni protone; oltre, il numero di neutroni aumenta. Il Bismuto, per esempio, contiene ottantatré protoni ma centoventisei neutroni. Quando un nucleo atomico eccede determinate dimensioni, diventa instabile ed emette piccole particelle beta finché non si raggiunge la stabilità. Questi materiali sono chiamati “elementi radioattivi”. Esistono anche altri tipi di radioattività, ma esulano dal nostro discorso.

Il campo di forza, dicevamo. L’intensità della forza nucleare cala rapidamente con la distanza e infatti non influenza nulla che sia fuori dal nucleo atomico. Ecco perché quindi abbiamo un limite al numero di protoni in un nucleo, semplicemente perché un atomo con un eccesso di protoni sarebbe più grande del campo di forza dell’interazione nucleare e in quel caso prevarrebbe la forza elettromagnetica e quindi la repulsione. La forza nucleare non permette semplicemente qualcosa di più grande, eccetto condizioni insolite, che vedremo più in là nella trattazione.

Abbiamo parlato a sufficienza della forza nucleare, vediamo ora come funziona quella elettromagnetica. Essa è prodotta solo da quelle particelle che trasportano una carica elettrica, disponibile in due tipi, positiva e negativa. Tra positivo e negativo si ha un’attrazione, mentre tra positivo e positivo o tra negativo e negativo si ottiene una repulsione. Abbiamo visto che nel nucleo, gli adroni presenti rispondono entrambi alla forza nucleare, che però non influenza gli elettroni, che infatti non fanno parte del nucleo stesso; invece, per quanto riguarda la forza elettromagnetica, i neutroni, essendo appunto neutri, non ne saranno influenzati, mentre elettroni e protoni sì. L’elettrone fu scoperto nel 1897 dal fisico inglese Joseph John Thomson (1856-1940), e ha ricevuto il suo nome perché era la più piccola unità di carica elettrica allora conosciuta. “Elettrone” deriva infatti dalla parola greca ήλεκτρον, électron, cioè ambra. Tale nome è storicamente dovuto al fatto che l’ambra ebbe un ruolo fondamentale nella scoperta dei fenomeni elettrici: in particolare dal VII secolo a.C. gli antichi Greci erano a conoscenza del fatto che strofinando un oggetto di ambra o ebanite con un panno di lana, l’oggetto in questione acquisiva la capacità di attirare a sé corpuscoli leggeri, quali ad esempio granelli di polvere.

Anche non facendo parte del nucleo, l’elettrone ne è attratto a causa della carica opposta e, essendo la “carica” di protone ed elettrone uguale nell’intensità ma opposta nel segno, la proporzione tra protoni nel nucleo ed elettroni “orbitanti” è di 1:1, cioè un elettrone per ogni protone. Pertanto, quando ci sono tot protoni nel nucleo, l’esistenza di tot elettroni negli orbitali farà sì che i due tipi di carica si annullino a vicenda, e l’atomo nel suo complesso è elettricamente neutro. Anche se, come abbiamo detto, l’elettrone e il protone sono uguali nella carica elettrica, anche se di segno opposto, non hanno la stessa massa e il protone è 1836.11 volte più massiccio dell’elettrone. Piccola digressione: la massa (inerziale) è quella proprietà di un corpo per la quale questi oppone una resistenza quando si cerca di accelerarlo applicandovi una forza (seconda legge della dinamica). Il peso di un corpo invece è la forza con cui questo corpo viene attratto verso un altro e dipende dalla distanza dei due corpi. Il nostro peso sulla Terra e sulla Luna è diverso mentre la massa non cambia. Fine digressione.

Immaginate un atomo, quindi, con x protoni e y neutroni nel nucleo e gli x elettroni nelle regioni esterne degli atomi. La carica elettrica è equilibrata, ma più del 99,97% della massa dell’atomo è nel nucleo. Anche se il nucleo contiene quasi tutta la massa di un atomo, costituisce solo una piccola frazione del volume di un atomo. Ora consideriamo due atomi. Ognuno ha una carica elettrica complessiva pari a zero. Potremmo supporre, quindi, che non si dovrebbero influenzare reciprocamente; idealmente, secondo quanto detto finora, dovrebbe essere così. E così sarebbe se la carica elettrica dell’elettrone fosse omogenea su tutta la “superficie” degli orbitali. Ma così non è: vediamo perché.

La carica negativa degli elettroni è presente nelle regioni esterne dell’atomo, e la carica positiva del nucleo è nascosta all’interno. Quando due atomi si avvicinano, è la regione esterna carica negativamente dell’uno che si avvicina alla regione esterna carica negativamente dell’altro. Le due cariche negative sappiamo che si respingono e ciò comporta che due atomi posti vicino “rimbalzano”. Il gas Elio, per esempio, è costituito da atomi di elio che non fanno che muoversi e respingersi tra loro. A temperatura ordinaria gli atomi di elio si muovono abbastanza rapidamente e rimbalzano reciprocamente con una forza considerevole. Come la temperatura si alza, rimbalzano più velocemente; quando  si abbassa, gli atomi si muovono più lentamente e si avvicinano sempre di più. Mentre non c’è un limite (in effetti c’è, ma per la nostra “indagine” non serve) di riscaldamento, c’è un limite di raffreddamento, che è rappresentato dalla temperatura di -273,18°C, detto zero assoluto, temperatura alla quale gli atomi sono fermi (più o meno). Anche se l’atomo di Elio ha una distribuzione di carica che è abbastanza vicina ad essere perfettamente simmetrica, in effetti non lo è. La carica elettrica è non distribuita uniformemente, e di conseguenza, parti della superficie dell’atomo sono un po’ meno negative rispetto ad altre. Di conseguenza la carica positiva interna dell’atomo fa capolino attraverso le aree meno negative della parte esterna, per intenderci, e due atomi vicini si attireranno molto debolmente. Questa debole attrazione si chiama forza di van der Waals, poiché scoperte dal fisico olandese Johannes Diderik van der Waals (1837-1923).

Gli atomi a volte si attraggono reciprocamente in modo più forte. Gli elettroni nelle regioni esterne degli atomi come abbiamo visto sono disposti in “gusci”, e la struttura è più stabile se tutti i gusci sono pieni. Tranne il caso dell’Elio e di alcuni elementi simili, gli atomi hanno generalmente il loro guscio più esterno non completo o con un elettrone in più. Ci può essere una tendenza per due atomi in collisione di trasferire uno o due elettroni da quello che ne ha un surplus a quello che ha carenza, così da rendere stabili le configurazioni finali. Quello che guadagna un elettrone ha guadagnato anche una carica negativa, e quello che lo perde ha guadagnato una carica positiva. I due atomi hanno quindi la tendenza ad “aggrapparsi” tra loro. Tali combinazioni di atomi sono chiamate molecole, dal latino scientifico “molecula” derivato a sua volta da latino classico “moles” cioè “mole”, che significa “piccolo oggetto”.

A volte due atomi a contatto sono sufficienti ad assicurare una stabilità. Due atomi d’idrogeno formano una molecola d’idrogeno; due atomi di azoto, una molecola di azoto; e due atomi di ossigeno, una molecola di ossigeno. A volte ci vogliono più di due atomi per riempire tutti i gusci. La molecola di acqua è costituita da un atomo di ossigeno e da due atomi di idrogeno; la molecola di metano è costituita da un atomo di carbonio e da quattro atomi di idrogeno; la molecola dell’anidride carbonica è costituita da un atomo di carbonio e da due atomi di ossigeno, e così via. In alcuni casi moltissimi atomi possono formare una molecola. Questo è il caso del carbonio, che può mettere in condivisione gli elettroni con quattro altri atomi. Pertanto si possono formare lunghe catene e anelli complicati di atomi di carbonio. Tali catene e anelli costituiscono la base delle molecole caratteristiche del tessuto vivente. Le molecole delle proteine e gli acidi nucleici nel corpo umano e in tutti gli altri esseri viventi sono esempi di tali macromolecole (macro, dal greco μακρός, macròs, cioè “lungo, esteso”).

Tutte le sostanze solide che vediamo sono tenute insieme dalle interazioni elettromagnetiche che esistono in primo luogo fra gli elettroni e protoni, quindi tra atomi diversi e quindi tra molecole diverse. Cosa più importante, questa capacità della forza elettromagnetica di tenere insieme una miriade di particelle si estende verso l’esterno praticamente senza fine. L’interazione nucleare può produrre soltanto il piccolo nucleo atomico. La forza elettromagnetica, invece, più debole, può aggregare atomi e formare dalle particelle di polvere alle montagne; può produrre un corpo delle dimensioni della Terra stessa e corpi ben più grandi ancora.

Ogni cambiamento chimico è il risultato di trasferimenti di elettroni da un atomo a un altro. Questo include tutte le modifiche che ci sono al nostro interno, dalla digestione del cibo, alla contrazione dei muscoli, alla crescita di nuovo tessuto, agli impulsi nervosi, alla generazione del pensiero all’interno del nostro cervello; tutto questo è il risultato di cambiamenti sotto il controllo della forza elettromagnetica.

Torna al menu

La cinematica

5

Ogni volta che ci si accinge a fare qualcosa, si possono avere molteplici atteggiamenti. C’è chi odia le scadenze, c’è chi è abituato a fare tutto all’ultimo momento, c’è chi programma e chi no. Io tendo a non avere (o almeno ci provo) lo stesso atteggiamento in tutte le occasioni, ma l’istinto a volte prevale sulla ragione. Il mio passato militare mi porta a cercare di programmare con anticipo qualunque cosa voglia fare, anche se a volte mi rendo conto di correre a vuoto (con il termine “corse a vuoto” si identifica una particolare corsa equestre, in cui i cavalli corrono senza fantino. Attualmente corse a vuoto vengono effettuate solo a Ronciglione, una cittadina della provincia di Viterbo dove la tradizione si tramanda dal XV secolo ai tempi di Papa Paolo III Farnese). Adesso che avrei voluto scrivere di fisica in maniera organica, è venuto fuori un progetto (segreto, ovviamente) che mi allontanerà un po’ dal blog. Ma non troppo, mio giovane lettore, non disperare…

Intanto, aspettando la partenza di quel progetto segreto (ok, non ci riesco, devo scrivere un libro, ecco, l’ho detto…), continuo da dove avevo lasciato, anche se in verità di fisica ho parlato ben poco, nelle due (e mezzo) precedenti parti. Ho parlato di misure e di sistemi di riferimento e di come la fisica sia interconnessa un po’ con tutte le materie scientifiche (e anche con quelle non scientifiche). Inoltre abbiamo rivisto la vita di Marie Curie, di cui avevo già scritto in passato, proprio perché personaggio interessante sia per la fisica sia per la scienza in generale. Oggi iniziamo a parlare un po’ di fisica…

I primi fenomeni fisici che studieremo saranno quelli connessi al moto. Le ragioni per questa scelta sono molteplici. Storicamente lo studio dei moti semplici costituisce una delle prime applicazioni del metodo scientifico. Galileo Galilei (1564-1642) descrisse correttamente le leggi di caduta dei corpi e fu anche in grado di spiegare dettagliatamente il moto dei proiettili tramite un uso corretto del metodo scientifico, dando cioè priorità al confronto delle sue leggi con gli esperimenti. Inoltre il moto è un tema che pervade tutta la fisica, gli atomi in tutte le forme della materia sono in continuo movimento, il moto di un elettrone produce la corrente elettrica, i pianeti si muovono attorno al sole, e così via.

La cinematica (dal greco κίνημα -ατος, kinema -atos = «movimento», derivato a sua volta dal verbo κινέω, kineo = “muovo”) è la scienza che descrive il moto degli oggetti usando parole, diagrammi, numeri, grafici ed equazioni. Il fine di ogni studio di cinematica è di sviluppare modelli mentali che ci servono per descrivere (ed infine spiegare) il moto degli oggetti del mondo reale.

Iniziamo con le parole usate per descrivere il moto di un oggetto, ovvero con il linguaggio della cinematica. Le parole usate con regolarità sono: vettori, scalari, spazio percorso, spostamento, velocità, accelerazione.

La fisica è una scienza matematica, vale a dire che i concetti e i principi fisici hanno una base matematica. In particolare, le quantità matematiche usate per descrivere il moto di oggetti possono essere divise in due categorie:

  • scalari – quantità descritte completamente dalla loro misura;
  • vettori – quantità descritte oltre che dalla loro misura (modulo del vettore), anche da direzione e verso. Sono rappresentati da frecce, la cui lunghezza è proporzionale al modulo del vettore.

Ad esempio, immaginate una foto di un incontro di tennis nel quale si vede la pallina. Guardando la pallina e dicendovi che sta viaggiando alla velocità di 30 km/h, avete una descrizione completa della velocità? Non vi manca niente? Siete sicuri che è sufficiente un numero? La domanda che dovrebbe venirvi subito in mente è: “Ok, ma da che parte va quella pallina? Sta cadendo, salendo, a destra o sinistra?”. Ebbene, per descrivere la velocità della pallina, non è sufficiente un numero, vi serve anche una direzione, che graficamente si rappresenta con una linea. Adesso siete al completo? Io non credo… Sapete che la pallina sta viaggiando a 30 km/h e sapete anche la direzione. Che cos’è che vi manca? Ma certo, non sapete se la pallina sta cadendo oppure salendo, in altre parole vi manca il verso della velocità, che graficamente si indica con una freccia.

vettore_velocita_1 vettore_velocita_3

Ecco, quello è un vettore (una grandezza vettoriale, per essere precisi…).

Spazio percorso e spostamento sono quantità che sembrano significare la stessa cosa, in realtà hanno diverse definizioni e diverso significato.

  • Spazio percorso – quantità scalare che si riferisce a quanto spazio ha percorso un oggetto durante il suo moto;
  • Spostamento – quantità vettoriale che si riferisce al cambiamento di posizione di un oggetto.

Facciamo un esempio anche qui. Consideriamo un bambino che cammina per 4 metri a Est, 2 metri a Sud, 4 metri ad Ovest ed infine 2 metri a Nord. Anche se il bambino ha camminato coprendo in totale 12 metri il suo spostamento è nullo. Durante il suo moto ha percorso uno spazio di 12 metri ma alla fine del moto il bambino è tornato esattamente al suo posto, quindi il suo spostamento è stato di 0 metri. Lo spostamento è una quantità vettoriale e quindi dipende dalla direzione: i 4 metri ad Est sono stati cancellati dai 4 metri ad ovest e i 2 metri a Sud sono stati cancellati dai 2 metri a Nord.

La velocità è una quantità vettoriale che si riferisce a quanto e come un oggetto cambia la sua posizione. Immaginiamo una persona che si muove velocemente, un passo in avanti e un passo indietro, tornando sempre nella sua posizione di partenza. La sua velocità è zero. Se una persona in moto vuol massimizzare la sua velocità, allora questa dovrà fare ogni sforzo per massimizzare lo spostamento dalla sua posizione di partenza, e, sicuramente, non dovrà mai cambiare direzione e tornare verso il punto da cui è partita. La velocità, essendo una grandezza vettoriale, dipende infatti dalla direzione. Non è sufficiente dire che un’auto si muove con una velocità di 50 Km/h. Dobbiamo dare anche informazioni sulla direzione e verso per descrivere completamente la velocità dell’auto. Per esempio dovremmo dire che l’auto si muove con una velocità di 50 Km/h verso Est.

Indicare la direzione della velocità è un compito molto semplice, visto che questa è la stessa della direzione in cui si sta muovendo l’oggetto. Indipendentemente dal fatto che l’oggetto stia rallentando o stia aumentando la sua velocità, la sua direzione sarà sempre data dalla direzione in cui si sta muovendo l’oggetto stesso.

Possiamo poi definire un’altra grandezza, che chiameremo velocità scalare che descrive quanto spazio è stato percorso nell’unità di tempo. Nell’esempio precedente della persona che compie un passo avanti e uno indietro, abbiamo visto che la sua velocità è nulla in quanto il suo spostamento è nullo, ma non sarà nulla la sua velocità scalare.

Quando un oggetto si muove, spesso subisce variazioni di velocità. Ad esempio in un normale percorso in auto, l’indicatore di velocità (o più correttamente della velocità scalare) si muove costantemente a causa di frenate o accelerate. È quindi utile introdurre il concetto di velocità scalare media.

La velocità scalare media è una grandezza scalare definita come lo spazio totale percorso diviso il tempo impiegato, e tale definizione è molto diversa da quella per la velocità vettoriale media. Per esempio, nel moto circolare (il moto che avviene lungo una circonferenza) dopo un periodo T la velocità vettoriale media è nulla, perché il punto di arrivo e quello di partenza coincidono, ovvero ∆r=0 mentre la velocità scalare media è uguale a 2πR/T, in cui R è il raggio della circonferenza.

Facciamo subito un esempio: Chiara e Max sono in viaggio attraverso l’Italia e percorrono un totale di 440 Km in 8 ore. Qual è stata la loro velocità scalare media? (non possiamo avere informazioni sul vettore velocità visto che non sappiamo niente sulla direzione dello spostamento). Otteniamo quindi

velocita scalare media = 440 Km/8 h = 55 Km/h

Questo non significa che Chiara e Max abbiano viaggiato ad una velocità costante di 55 Km/h. Sicuramente si sono fermati qualche volta (per esempio per il pranzo, conoscendo Max…) e quindi avranno percorso dei tratti a velocità superiore, per esempio a 80 Km/h. Ma la loro velocità scalare media è stata di 55 Km/h. In genere, nel linguaggio comune, è quella che noi chiamiamo semplicemente “velocità media”.

Consideriamo ora l’esempio di prima e supponiamo che il bambino compia il percorso in 24 secondi. Determiniamo la velocità scalare media e la velocità media. Il bambino ha percorso uno spazio di 12 metri in 24 secondi: quindi la sua velocità scalare media è 0,5 m/s. Però, siccome il suo spostamento è di 0 m la sua velocità media è di 0 m/s. (Ricordiamo che lo spostamento si riferisce al cambiamento di posizione e che la velocità si basa sulla variazione di posizione).

Poiché un oggetto in movimento cambia spesso la sua velocità durante il moto, è utile distinguere tra velocità media e velocità istantanea:

  • velocità istantanea – velocità ad un dato istante di tempo;
  • velocità media – variazione della posizione nell’intervallo di tempo considerato; il modulo è dato semplicemente dal rapporto (spostamento/tempo).

Non sempre gli oggetti si muovono con velocità variabile in modulo e/o in direzione. Può succedere che un corpo si muova con velocità costante: tale corpo percorrerà distanze uguali a intervalli di tempo regolari. Ad esempio un corridore può correre in linea retta con velocità costante di 6 m/s. Se la sua velocità si mantiene costante, questo coprirà uno spazio di 6 m ogni secondo. Se fossimo in grado di misurare la sua posizione (spazio percorso da un punto di partenza arbitrario) ciascun secondo, potremmo notare che la sua posizione cambia di 6 m ciascun secondo. Questo è in contrasto con un oggetto che cambia la sua velocità, che quindi coprirà distanze diverse ogni secondo. È utile quindi introdurre un’altra grandezza: l’accelerazione.

L’accelerazione è la quantità vettoriale che si riferisce a quanto e come un oggetto cambia la sua velocità. Un oggetto sta accelerando quando sta cambiando la sua velocità.

Quindi l’accelerazione non ha niente a che fare con quanto un oggetto si muove velocemente, viceversa è legata al cambiamento della velocità di un corpo. Se un oggetto non sta cambiando la sua velocità, allora l’oggetto non sta accelerando. In altre parole, un oggetto che si muove con velocità costante ha accelerazione nulla. Tutte le volte che la velocità di un oggetto cambia si dice che sta accelerando. Visto che gli oggetti accelerati cambiano costantemente la loro velocità, possiamo dire che (spazio percorso/tempo) non è costante.

Un oggetto che cade accelera. Se osserviamo il moto di un oggetto in caduta libera possiamo costruire una tabella:

Intervallo di tempo (∆t) velocità media nell’intervallo ∆t spazio percorso nell’intervallo ∆t spazio percorso totale
0-1 s 5 m/s 5 m 5 m
1-2 s 15 m/s 15 m 20 m
2-3 s 25 m/s 25 m 45 m
3-4 s 35 m/s 35 m 80 m

Vediamo da questo esempio che poiché la velocità varia di una quantità costante ogni secondo, l’oggetto sta accelerando in modo costante. Date le velocità medie per ogni intervallo di tempo, possiamo dedurre che l’oggetto è caduto di 5 metri nel primo secondo, di 15 metri nel secondo secondo (con uno spazio percorso totale di 20 metri), di 25 metri nel terzo secondo (con un totale di 45 metri), di 35 metri nel quarto secondo (con uno spazio percorso totale di 80 metri dopo 4 secondi) e via andando. Quindi un oggetto in caduta libera che accelera in modo costante coprirà spazi diversi in ogni successivo secondo (notare che nel caso di un moto di caduta libera sia direzione che verso sono fissati durante tutto il moto quindi, in questo caso, lo spazio percorso coincide con il modulo del vettore spostamento). Dall’analisi della prima e dell’ultima colonna dei dati in tabella scopriamo che c’è una relazione quadratica tra lo spazio totale percorso ed il tempo impiegato a percorrerlo per un oggetto che parte da fermo e che accelera in modo costante: lo spazio percorso totale è proporzionale al quadrato del tempo. Ovvero, fissato un intervallo di tempo di riferimento ∆t, se un oggetto cade per 4 volte ∆t, coprirà una distanza 42 = 16 volte più grande di quella coperta in ∆t (nell’esempio ∆t=5, 5×16=80) . L’accelerazione media di un oggetto si calcola usando l’equazione seguente:

accelerazione media = ∆/tf-ti = vf-vi

Ricordiamo che il simbolo ∆ indica una variazione, vf e vi indicano la velocità finale ed iniziale (si leggono v di f e v di i) e tf e ti il tempo finale ed iniziale. Questa equazione può essere usata per calcolare l’accelerazione di un oggetto il cui moto è descritto dai dati velocità-tempo in tabella.

Poiché l’accelerazione è una quantità vettoriale, avrà una direzione ed un verso ad essa associati. Il verso del vettore accelerazione dipende:

  • dal verso della velocità;
  • da cosa sta facendo l’oggetto in moto: se sta aumentando la sua velocità o la sta diminuendo. Vale la regola seguente: se un oggetto sta rallentando, allora la sua accelerazione è nella direzione opposta al moto e in gergo è conosciuta come “decelerazione”, anche se in fisica si chiama accelerazione negativa.

Per quanto sia a volte difficile, vi chiederò spesso di rappresentare i concetti fisici in modo visivo. Il mondo che stiamo cercando di capire è il mondo fisico, un mondo che possiamo vedere. Nel momento in cui cerchiamo di capirlo, questo processo coinvolgerà rappresentazioni visive. E quindi molto importante che le nostre abitudini di studio e di apprendimento siano continuamente controllate; dobbiamo cioè chiederci se le nostre conoscenze sono basate su una serie di parole astratte che non hanno relazione con il mondo fisico che cercano di descrivere o se invece le nostre conoscenze sono intimamente collegate a tale mondo fisico dalle nostre immagini visive.

Un diagramma vettoriale, ad esempio, indica la direzione, il verso e il modulo di una quantità vettoriale con una freccia. Il modulo del vettore è rappresentato dalla lunghezza del vettore. Diagrammi vettoriali possono essere usati per descrivere la velocità di un oggetto durante il suo moto. Essi possono essere usati per rappresentare qualunque quantità vettoriale come ad esempio l’accelerazione, la forza o il momento di una forza. Il grande Richard Feynman (1918-1988) usando i diagrammi vettoriali nella fisica delle particelle ha inventato di fatto l’elettrodinamica quantistica, vincendo nel 1965 il premio Nobel per la fisica.

Per terminare questa introduzione (introduzione? Io già non ce la faccio più a leggere, dirà il mio amico Vincenzo…, ok Vins, sto scherzando, ho quasi finito…) notiamo che la velocità media, cosi come l’accelerazione media non danno una caratterizzazione completa del moto. Per esempio in un intervallo di tempo di un’ora è possibile che la velocità sia cambiata più di una volta, mentre in un periodo di tempo più breve è possibile che si siano avute minori variazioni. Una idea più precisa si potrebbe avere se si conoscesse la velocità ad ogni istante. Per esempio il tachimetro (dal greco ταχύς, tachýs, “veloce”) di una macchina permette una tale conoscenza in modo pressoché istantaneo. Quello che fa il tachimetro (anche se tutti lo chiamano contachilometri) è di misurare di quanto si sposta la macchina (che viene dedotto dal numero di giri delle ruote) per intervalli di tempo molto piccoli. In questo modo si ha la velocità media in un intervallo di tempo piccolo. Dato che in questo intervallo di tempo la velocità sarà rimasta quasi costante, questa media si può assumere come valore istantaneo. Cioè la velocità istantanea può essere descritta come una velocità media calcolata su un intervallo di tempo molto breve. In modo analogo l’accelerazione istantanea può essere pensata come l’accelerazione media valutata su un intervallo di tempo molto piccolo.

Ricapitolando, abbiamo detto che la cinematica del punto materiale studia il moto dei corpi senza riferimento alle sue cause, per questo possiamo affermare che è la parte più elementare della meccanica: infatti, per riassumere, possiamo dire che un corpo è in moto quando la sua posizione rispetto ad un altro, assunto come riferimento, varia nel tempo.

Le grandezze fisiche necessarie per lo studio della cinematica sono:

  • Spazio – s, l, x, r…
  • Tempo – t
  • Velocità – v
  • Accelerazione – a

Dunque per descrivere il moto di un punto materiale che si muove lungo una traiettoria, è sufficiente associare ad ogni istante t il numero s che esprime la sua posizione sulla traiettoria in quell’istante. La legge che associa ad ogni istante t il corrispondente valore di s è detta legge oraria.

La legge oraria può essere espressa tramite:

  • una tabella
  • un grafico
  • una formula matematica

Abbiamo anche visto che la velocità è quella grandezza vettoriale che esprime la rapidità con cui cambia nel tempo la posizione del punto materiale, in pratica il rapporto tra spazio percorso e tempo impiegato a percorrerlo.

Le principali tipologie del moto di corpi puntiformi sono:

  • stato di quiete (eh, sì, anche lo stato di quiete è un moto, in cui la velocità è nulla);
  • moto rettilineo uniforme: tipico del punto che mantiene costante modulo, direzione e verso del vettore velocità;
  • moto circolare uniforme: punto che si muove lungo una circonferenza con modulo della velocità costante;
  • moto rettilineo uniformemente accelerato: punto che si muove con velocità regolarmente variabile in modulo e con direzione e verso costanti (esempio: caduta dei gravi);
  • moto parabolico: punto che si muove nelle due dimensioni di un piano verticale con velocità orizzontale costante e accelerazione verticale costante (ad esempio moto dei proiettili);
  • moto armonico: tipico della massa del pendolo o dello stantuffo del motore;
  • moto kepleriano: caratteristico dei pianeti e in genere dei corpi sottoposti a un potenziale coulombiano;
  • moto elicoidale uniforme: moto tridimensionale di un punto; il moto si compone di un moto piano circolare uniforme in un piano e di un moto rettilineo uniforme nella direzione perpendicolare al piano detto.

Non li descriverò uno ad uno perché lo scopo di questi scritti non è quello di creare un manuale, ma di dare una traccia a chi volesse partire a studiare fisica in maniera un po’ più approfondita.

Prima di chiudere questa parte voglio citare uno dei più comuni errori che vengono fatti riguardo al moto dei gravi in caduta libera. Sappiamo che l’accelerazione di un oggetto in caduta libera (sulla terra) è di 9,8 m/sec2. Questo valore è lo stesso per tutti gli oggetti, indipendentemente dal tempo di caduta, dalla loro velocità iniziale, dalla loro posizione iniziale. La domanda che spesso viene fatta è la seguente: un oggetto con una massa maggiore accelera di più rispetto ad un oggetto con minore massa? La risposta è no; ovviamente se stiamo considerando il moto di caduta libera che avviene sotto la sola influenza della forza di gravità. Questa domanda è ragionevole e deriva da osservazioni quotidiane di oggetti in caduta libera. Chiunque di noi ha osservato la differenza tra la caduta di un pezzo di carta e di un libro! I due oggetti, anche se lanciati dalla stessa altezza, non cadono con velocità confrontabili, il libro cade più velocemente. Ma questo è dovuto all’effetto della resistenza dell’aria. La spiegazione del perché tutti i corpi subiscano la stessa accelerazione di gravità richiede la conoscenza dei concetti di forza e di massa che vedremo in seguito. Impareremo che l’accelerazione è direttamente proporzionale alla forza e inversamente proporzionale alla massa. Quindi su una massa doppia agisce una forza gravitazionale doppia, ma poiché l’accelerazione è inversamente proporzionale alla massa, ne risulta che tutti gli oggetti cadono con la stessa accelerazione indipendentemente dalla loro massa.

Adesso che abbiamo i concetti di base del moto, senza però saperne le cause, possiamo andare un po’ più a fondo. La prossima volta, quando sarà, parleremo di “dinamica”, che è il ramo della meccanica che si occupa dello studio del moto dei corpi e delle sue cause o, in termini più concreti, delle circostanze che lo determinano e lo modificano.

Ovviamente invito come sempre tutti i lettori a farsi e farmi domande su quanto da me raccontato, poiché è questo il modo migliore per imparare le cose! Alla prossima!

Torna al menu

La dinamica

6

Tempo fa avevo annunciato in “Introduzione alla fisica” della volontà di occuparmi in maniera più organica e ordinata di fisica, ma dopo un anno ancora non ci sono riuscito. Il tempo libero scarseggia e siccome questo di scrivere è un hobby, mi piacerebbe rimanesse tale (almeno per ora, Marcello, non ti preoccupare).

In tutti i modi, oggi proverò a riprendere da dove avevo interrotto e ricomincio parlando di dinamica.

Fin ad ora ci siamo limitati ad osservare il moto (nel precedente articolo “La cinematica”) e a discuterne varie caratteristiche introducendo quantità come la velocità e l’accelerazione che ci aiuteranno nella comprensione delle cose che seguiranno.

La dinamica è il ramo della meccanica che si occupa dello studio del moto dei corpi e delle sue cause o, in termini più concreti, delle circostanze che lo determinano e lo modificano. Lo studio completo della meccanica comprende anche la statica e la cinematica: la dinamica si differenzia dalla prima che studia le configurazioni di equilibrio meccanico, dalla seconda che studia, in astratto, tutti i moti concepibili ma non si occupa di determinare quali moti possono avvenire in un determinato contesto sperimentale.

Secondo l’intuizione fondamentale di Galileo e Newton, le forze non sono la causa del moto, ma producono una variazione dello stato di moto, ovvero un’accelerazione. Questa intuizione equivale ad affermare la relatività del movimento; un osservatore può determinare il suo stato di quiete o di moto solo relativamente ad altri corpi (o altri osservatori). Per questo è possibile parlare delle cause che variano il moto, ma non delle cause del moto.

Lo studio della dinamica si conduce innanzitutto riferendosi a un’entità astratta, dotata di massa ma con dimensioni trascurabili: il punto materiale. Tutte le leggi riferite al punto materiale possono essere poi estese ai corpi reali (dotati di massa e di dimensioni finite) interpretati come sistemi di punti materiali; se ci si occupa di corpi nei quali le distanze relative tra i punti costituenti il sistema non variano nel tempo, si parla di “dinamica dei corpi rigidi”; in caso contrario si parla di “dinamica dei corpi deformabili”.

Come accennavo, Galileo Galilei (1564 – 1642) ed Isaac Newton (1642 – 1727) furono fautori di una vera e propria rivoluzione. E come avrete notato, l’anno di nascita di Newton è anche l’anno di morte di Galilei. Cosa significa? Assolutamente nulla, ma mi andava di scriverlo…

Prima di Galileo la conoscenza dei fenomeni naturali era essenzialmente legata all’osservazione diretta; da Galileo in poi l’osservazione si integrò con la sperimentazione. Prima di Galileo gli strumenti erano pochi, usati per alcune misure matematiche e astronomiche o più spesso impiegati per soddisfare bisogni quotidiani; da Galileo in poi gli strumenti diventarono ineliminabili ausili per ampliare le conoscenze scientifiche.

Prima di Newton la cultura scientifica non esisteva neppure, perché era ferma alle visioni aristoteliche, cioè che la sfera terrena era composta da 4 elementi (terra, aria, acqua, fuoco) mentre quelle celesti erano fatte di un solo, quinto elemento (l’etere, perfetto ed incorruttibile). Sulla terra i quattro elementi tendevano a ritornare nel luogo che gli competeva (il cielo compete al fuoco ed all’aria, mentre il suolo compete alla terra ed all’acqua); quindi la terra e l’acqua tendevano a cadere (per ritornare al suolo) mentre l’aria ed il fuoco tendevano a risalire (per ritornare al cielo).

Newton però fissò delle leggi e delle regole precise; cerchiamo prima di capire cosa sia la dinamica e come arrivare a quelle leggi.

Tutti noi abbiamo sperimentato il fatto che per ”mettere in moto” un oggetto occorre effettuare uno ”sforzo”. Infatti nell’accezione comune la forza è legata ad un’azione muscolare: tutti sappiamo anche che dobbiamo esercitare una grande forza per spingere una macchina, ma che probabilmente non siamo in grado di spingere un camion per quanto sforzo possiamo esercitare. Dunque in qualche modo il moto ha a che fare con la quantità di materia e con lo sforzo che si esercita.

Dato che per far muovere un corpo è necessario esercitare uno sforzo, si è pensato per lungo tempo che per far viaggiare un corpo con velocità costante occorresse una forza. D’altra parte questa osservazione non spiega perché per smuovere un corpo occorra uno sforzo muscolare (o una forza) molto superiore. Analogamente, per fermare un corpo in movimento occorre uno sforzo superiore a quello necessario per mantenerlo in moto. La spiegazione odierna è che occorre considerare tutti gli effetti a cui è sottoposto un corpo in movimento.

Infatti consideriamo una palla con una superficie molto liscia che rotoli su una superficie anch’essa molto liscia. Se la mettiamo in movimento con una spinta essa continuerà a rotolare per un bel tratto, ma alla fine si fermerà. Nella vecchia teoria dell’impetus, la spiegazione era che la palla perdeva lentamente la forza (l’impetus) che le era stata applicata. Questa nozione persiste tutt’oggi come nozione di senso comune e deriva da una sorta di identificazione tra lavoro effettuato e forza applicata. In ogni caso, se ripetiamo l’esperienza precedente della palla su una superficie più ruvida, stando attenti a fornirle uguale spinta, si vedrà che la palla effettuerà un percorso più breve. Questo ci suggerisce che siano le irregolarità della superficie ad ostacolare il moto. Ovviamente queste irregolarità non sono completamente eliminabili. Anche se studiassimo il moto all’interno di una camera a vuoto, qualche piccolo effetto di resistenza al moto sarebbe sempre presente, visto che anche con le migliori tecniche a nostra disposizione una piccola quantità di aria rimane sempre presente (circa 108 atomi/cm3 nel vuoto migliore).

Possiamo però pensare ad una situazione idealizzata, come abbiamo fatto nel caso della caduta dei gravi nel precedente “paragrafo”, dove si ipotizza la possibilità di avere superfici perfettamente lisce e/o ambienti completamente privi di gas. Le esperienze precedenti suggeriscono che in queste condizioni, una volta messo in moto un corpo, e nessun’altra forza applicata, il corpo continui nello stato di moto che aveva al momento in cui la forza applicata è cessata. L’affermazione che il corpo rimane nel suo stato di moto significa che se possiede una certa velocità e quando cessa la forza, questo continuerà a mantenerla. Se il corpo era inizialmente in quiete con nessuna forza applicata, il corpo rimarrà in quiete. Questo è il contenuto della prima legge di Newton che per altro era già nota a Galileo ed a Cartesio.

  1. Il principio di inerzia o primo principio della dinamica: Se su un corpo non agiscono forze o agisce un sistema di forze in equilibrio, il corpo persevera nel suo stato di quiete o di moto rettilineo uniforme.

Per “sistema di forze in equilibrio” si intende un insieme di forze la cui somma vettoriale sia nulla (se spingo un oggetto da due lati opposti, è ovvio che non si muova).

Questa legge non ci dice molto nei riguardi di una definizione quantitativa della forza, però ce ne descrive gli effetti qualitativi. Per esempio, ci dice che la presenza di una forza sarà connessa con un’accelerazione non nulla ed in questo senso ci dà una sorta di definizione operativa della forza stessa. Cioè ci dice che l’effetto di una forza è quello di produrre una variazione di velocità. Questa variazione di velocità è detta appunto accelerazione.

In termini “tecnici” (o, meglio, differenziali), l’accelerazione è la derivata rispetto al tempo del vettore velocità, così come la velocità è la derivata del vettore posizione rispetto al tempo. Per quello, essendo la derivata di una derivata, l’accelerazione si esprime in metri al secondo per secondo.

Ci sono molte applicazioni della prima legge di Newton. Basti pensare ad esempio a cosa succede quando andiamo in automobile. Avete mai osservato il comportamento di una bibita in auto quando si passa dallo stato di riposo (auto ferma) allo stato di moto? La bibita, che è a riposo, ”tende” a rimanere nel suo stato di riposo e se il bicchiere è pieno fino all’orlo, il liquido si rovescia. Viceversa, quando un’auto frena, la bibita ”tende” a preservare il suo stato di moto con la stessa velocità, e nuovamente si rovescia. Quindi non bevete bibite mentre accompagnate i vostri amici alle guide per prendere la patente.

La stessa cosa succede all’autista dell’auto. Quando frena, subisce l’effetto della propria inerzia. Infatti tenderà a mantenere il proprio moto. Sarà la cintura di sicurezza ad applicare su di lui una forza tale da farlo fermare insieme alla sua auto.

Ma cos’è l’inerzia? Possiamo definirla come la tendenza naturale dei corpi a ”resistere” alle variazioni del loro stato di moto.

In realtà il concetto di inerzia, fu introdotto da Galileo, che ipotizzò l’esistenza di una forza, detta forza d’attrito, come responsabile dell’arresto del moto degli oggetti. Le sue esperienze si servivano di piani inclinati posti uno di fronte all’altro. Galileo osservò che una pallina scendeva da un piano inclinato e saliva sull’altro arrivando circa alla stessa altezza. Cambiando inclinazione di uno dei piani inclinati, osservò che ancora la pallina raggiungeva la stessa altezza di partenza, quindi percorrendo spazi maggiori. Ipotizzò che le piccole differenze nelle quote raggiunte fossero dovute alla presenza di una forza di attrito e concluse che nel caso ideale in cui l’attrito fosse completamente eliminato la pallina raggiungerebbe esattamente la stessa altezza. Questo significa che riducendo sempre più l’inclinazione di un piano inclinato, la pallina percorrerà distanze sempre maggiori, fino ad arrivare al caso in cui, in assenza di attrito, la pallina continua nel suo stato di moto a velocità costante.

Abbiamo detto che l’inerzia è la tendenza di un oggetto a resistere alle variazioni del suo stato di moto. Ma cosa intendiamo con ”il suo stato di moto”? Lo stato di moto di un oggetto è definito dalla sua velocità. Quindi possiamo dire che l’inerzia di un corpo è la sua tendenza a resistere alle variazioni di velocità. Inoltre, come abbiamo imparato, le variazioni di velocità sono legate all’accelerazione. Quindi l’inerzia di un corpo è la sua tendenza a resistere all’accelerazione.

Nell’enunciato della prima legge di Newton, si dice che se la forza totale che agisce su un corpo è nulla, allora l’accelerazione a cui è soggetto il corpo è nulla. La forza totale è la risultante di tutte le forze che agiscono sul corpo. Se la risultante è nulla, significa che tali forze si fanno equilibrio. Quindi la prima legge di Newton afferma che “se le forze che agiscono su un corpo non sono in equilibrio, allora il corpo subirà un’accelerazione”.

La relazione esistente tra forza e accelerazione è contenuta nella seconda legge di Newton. Più precisamente la seconda legge di Newton dà una relazione tra tre quantità: massa, forza ed accelerazione. Mentre abbiamo dato una definizione operativa di accelerazione, dobbiamo ancora definire le altre due quantità. Ma leggiamoci prima la seconda legge.

  1. La legge fondamentale della dinamica o secondo principio della dinamica: Se su un corpo agisce una forza o un sistema di forze, la forza risultante applicata al corpo possiede direzione e verso della sua accelerazione e, in modulo, è direttamente proporzionale al modulo la sua accelerazione.

La costante di proporzionalità tra queste due grandezze è la massa, detta in questo caso “massa inerziale”, grandezza specifica di ciascun corpo. Questa legge può essere enunciata mediante l’equazione

F=ma

dove F è la risultante delle forze agenti sul corpo, m la massa dello stesso, e a l’accelerazione cui è soggetto.

In pratica il moto accelerato si produce solo tramite l’applicazione di una forza, l’accelerazione prodotta su di un corpo da una data forza è proporzionale alla forza stessa e la costante di proporzionalità è detta massa del corpo.

Possiamo adesso usare la seconda legge di Newton per fissare delle convenienti unità di misura per le forze e definire poi la massa. Andiamo a Gaithersburg, nel Maryland, presso il National Institute of Standards and Technology e trafughiamo nottetempo la massa campione di platino iridio (di cui avevamo già parlato): applicandogli una forza tale da produrre un’accelerazione di 1 m/sec2, diremo che la forza ha un valore di 1 Newton, abbreviato 1 N. In questo modo possiamo tarare i nostri dinamometri assegnando ad ogni forza, determinata precedentemente in relazione ad un peso campione, un valore in Newton. Dalla equazione vediamo che l’unità di forza è uguale all’unità di massa per l’unità di accelerazione, ovvero

1 N = 1 Kg m/sec2

A questo punto, usando un apparecchio del tipo mostrato in figura che segue,

dinamometro

possiamo misurare la massa di un corpo, semplicemente misurando l’accelerazione del corpo e la forza ad esso applicata usando un dinamometro. Si può inoltre verificare che le masse si sommano. Cioè la stessa forza applicata ad una massa doppia, produce un’accelerazione pari alla metà.

Ricordiamo l’esperimento di Galileo che realizzò dalla Torre di Pisa, in cui asseriva che tutti gli oggetti in caduta libera subiscono la stessa accelerazione, indipendentemente dalla loro massa. Consideriamo il moto di un sasso con una massa di 10 Kg e quello di una massa di 1 K. Sul sasso di 10 Kg agisce una forza 10 volte maggiore della forza che agisce sul sasso di 1 Kg e l’accelerazione dei due sassi è la stessa: l’accelerazione di gravità (9,8 m/s2).

Quindi possiamo dire che la forza di gravità è proporzionale alla massa e costante per tutti gli oggetti: spesso il peso di un corpo non viene espresso in N ma in Kgp (chilogrammo peso). Ricordiamo che il Kgp è l’intensità della forza peso a cui è soggetta la massa di un Kg. Quindi, ad esempio, 1 Kg di pane pesa 1 Kgp, cioè 9,8 Newton (e io 872,2, ma non ditelo a mia moglie altrimenti mi mette a dieta).

Il panorama della dinamica è completato dalla terza legge di Newton. Abbiamo dato una definizione operativa di forza dall’analisi di situazioni di equilibrio (definizione statica di forza). Possiamo però considerare una definizione più generale di forza come l’effetto su di un oggetto che deriva dalla sua interazione con un altro oggetto. Ogni volta che c’è interazione tra due oggetti, c’è una forza che agisce su ciascuno di essi. Quando l’interazione cessa i due oggetti non sono più sottoposti a forza. Per semplicità, tutte le forze (interazioni) tra oggetti, possono essere divise in due categorie: forze di contatto e forze che risultano da interazioni a distanza. Le forze di contatto sono tipi di forza tra due corpi che sono effettivamente a contatto. Questo è ad esempio il caso delle forze di attrito, delle forze di reazione di superfici di appoggio, delle forze di resistenza dell’aria ecc. Le forze di azione a distanza sono tipi di forza in cui i due oggetti interagenti non sono a contatto fisico, come ad esempio nel caso della forza gravitazionale (il sole e i pianeti si attraggono nonostante siano separati spazialmente, anche nel caso in cui un oggetto non tocca il suolo, è attratto dalla forza gravitazionale), oppure il caso della forza elettrica (i protoni nel nucleo atomico attraggono gli elettroni), le forze magnetiche (due calamite si attraggono o si respingono anche se sono separate da una distanza di qualche centimetro).

Quindi ne risulta:

  1. Il principio di azione-reazione o terzo principio della dinamica: Se due corpi interagiscono tra loro, si sviluppano due forze, dette comunemente azione e reazione: come grandezze vettoriali sono uguali in modulo e direzione, ma opposte in verso.

Questa affermazione significa che in ogni interazione, c’è una coppia di forze che agisce sui due oggetti interagenti. Tale coppia è formata dalla forza di azione e da quella di reazione (uguali in modulo, con la stessa direzione ma verso opposto).

Attenzione, le forze di azione e reazione non si fanno equilibrio, perché sono applicate a oggetti diversi! Esiste una grande quantità di situazioni in cui due forze uguali ed opposte agiscono sullo stesso oggetto, annullandosi a vicenda cosicché non si avrà alcuna accelerazione (o addirittura nessun moto). Questo non riguarda il terzo principio della dinamica (terza legge di Newton), ma piuttosto un caso di equilibrio tra forze.

Chi ha familiarità con le piccole imbarcazioni sa bene che prima di saltare da una barca verso il molo di attracco, è opportuno legare prima la barca al molo e afferrare una presa sul molo prima di saltare. Altrimenti, quando saltate, la barca “magicamente” si allontana dal molo, facendovi fallire il salto, oppure spingendo la barca fuori dalla vostra portata. Tutto questo è dovuto alla terza legge di Newton: quando le gambe spingono il vostro corpo verso il molo, esse esercitano anche sulla barca una forza uguale e in verso opposto, e questa forza spinge via la barca dal molo (c’è un esempio anche nel film “Passengers” quando Chris Pratt, alla deriva nello spazio, spinge verso un reattore un oggetto e automaticamente viene spinto nella direzione opposta).

Un esempio più sottile è fornito dalla bicicletta. È ben noto che stare in equilibrio su una bicicletta da fermo è quasi impossibile, mentre su una bicicletta in moto è piuttosto facile. Perché?

Diversi principi sono all’opera in questo caso. Supponete di sedervi su una bicicletta che stia ferma, e vi accorgete che si sta inclinando verso sinistra. Che cosa fate? La tendenza naturale è quella di inclinarvi verso destra, per controbilanciare quell’inclinazione mediante il vostro peso. Ma muovendo la parte superiore del vostro corpo verso destra, secondo la terza legge di Newton, state in realtà spingendo la bicicletta ad inclinarsi ancora di più verso sinistra. Forse dovreste inclinarvi verso sinistra per spingere la bicicletta indietro? Potrebbe funzionare per una frazione di secondo, ma a quel punto voi avete perso del tutto l’equilibrio. Non c’è modo!

Su una bicicletta in movimento, l’equilibrio è mantenuto mediante un meccanismo completamente diverso. Ruotando leggermente il manubrio a destra o a sinistra, voi impartite una certa rotazione alla ruota anteriore (“momento angolare”) per ruotare la bicicletta attorno al suo asse maggiore, la direzione di marcia della bicicletta. In questo modo il ciclista può controbilanciare ogni tendenza della bicicletta a cadere da un lato o dall’altro, senza innescare il circolo vizioso di azione e reazione.

Per scoraggiare i ladri, alcune biciclette montano un antifurto che blocca il manubrio in una posizione fissa. Se la posizione del manubrio è bloccata nella direzione in avanti, la bicicletta può essere condotta a mano da una persona che cammina, ma non può essere montata, poiché il ciclista non potrebbe mantenere l’equilibrio.

Le leggi di Newton sono state introdotte qui nel modo tradizionale, mediante i concetti di massa e di forza (in realtà Newton formulò la seconda legge in termini di quantità di moto, non di accelerazione). Ernst Waldfried Josef Wenzel Mach (1838 – 1916), fisico austriaco, tra l’altro scopritore di un rapporto tra la velocità di un oggetto in moto in un fluido e la velocità del suono nel fluido considerato, detto “numero di Mach”, cercò di evitare nuovi concetti e formulò le leggi fisiche soltanto in termini di ciò che può essere osservato e misurato. Egli sostenne che le leggi di Newton si potevano riassumere tutte in questa unica legge:

“Quando due oggetti di dimensioni trascurabili (in linguaggio tecnico “punti materiali”, nda) interagiscono tra loro, essi accelerano in direzioni opposte, e il rapporto delle loro accelerazioni è sempre lo stesso”.

Rileggete questa formulazione quante volte volete: non c’è alcuna menzione di forza, né di massa, ma soltanto di accelerazione, che può essere misurata. Quando una pistola agisce su un proiettile, un razzo sui suoi gas di scarico, il Sole sulla Terra (e nella scala della distanza che li separa, Terra e Sole possono essere considerati masse puntiformi), le accelerazioni sono sempre dirette in verso opposto.

Il lavoro di Mach venne ritenuto importantissimo da Einstein, e quest’ultimo lo usò per dare le fondamenta alla relatività generale. Il tutto, partendo da una mela caduta in testa a Newton! La prossima volta approfondirò un po’ di concetti espressi in questo articolo, sperando sempre di fare cosa utile anche a te, giovane lettore. Vedremo chi era Keplero e come vennero usate le sue formulazioni da Newton.

Torna al menu

Forze e moto: Principi della Dinamica

7

Come scritto in “La dinamica”, essa è il ramo della meccanica che si occupa dello studio del moto dei corpi e delle sue cause o, in termini più concreti, delle circostanze che lo determinano e lo modificano.

Avevamo visto inoltre che Isaac Newton aveva elaborato tre leggi che regolavano il moto degli oggetti in generale in base alla gravitazione. Da dove aveva tratto spunto? Facciamo un passo indietro e parliamo di uno scienziato che, prima di Newton, aveva capito molte cose riguardo al moto.

Giovanni Keplero (1571 – 1630) è stato un astronomo, astrologo, matematico e teologo evangelico tedesco. I suoi genitori decisero che egli sarebbe diventato un ecclesiastico e nel 1584 entrò nel seminario di Adelberg, trasferendosi poi nel seminario superiore a Maulbronn. Nel 1588 cominciò i suoi studi presso l’Università di Tubinga, seguendo due anni di istruzione generale, con lezioni di etica, dialettica, retorica, greco, ebraico, astronomia e fisica. Nel 1592 intraprese lo studio della teologia a Tubinga, università protestante dove insegnavano alcuni seguaci del copernicanesimo; tra questi vi era Michael Maestlin, che convinse Keplero della validità delle teorie di Niccolò Copernico.

Nel 1594 Keplero dovette interrompere gli studi teologici, perché gli venne affidato l’insegnamento di matematica presso la Scuola Evangelica di Graz (Austria) e successivamente divenne matematico territoriale degli Stati di Stiria. Tra i suoi compiti vi era l’obbligo di insegnare presso l’Università di Graz, redigere carte astrali e com’era uso nel tempo fare previsioni astrologiche; gli capitò così di prevedere un inverno molto rigido, le rivolte contadine e la guerra con i Turchi. Anche negli anni a seguire non si sottrasse alla stesura di oroscopi, che si configurano come ritratti dal forte tratto psicologico.

Nell’aprile 1597 sposò Barbara Mühleck, che morì prematuramente nel 1611 dopo avergli dato cinque figli (due dei quali morti in giovane età). Sempre nel 1597 pubblicò l’opera “Mysterium Cosmographicum”, nella quale tentò una prima descrizione dell’ordine dell’Universo. Nel 1599 Tycho Brahe gli offrì un posto come suo assistente, che Keplero accettò l’anno dopo, sfuggendo così anche agli editti contro i luterani che venivano emanati in Austria da ferventi controriformatori quali Ferdinando II d’Austria e Massimiliano III d’Austria.

Nel 1601, dopo la morte di Brahe, ne divenne il successore nell’incarico di matematico e astronomo imperiale a Praga. Nel 1604 osservò una supernova che ancora oggi è nota col nome di Stella di Keplero. Le basi per le sue scoperte astronomiche furono gettate nel 1609, quando pubblicò il suo capolavoro “Astronomia nova”, in cui formulò due leggi. Alla morte dell’imperatore Rodolfo II (1612), il nuovo imperatore Mattia (fratello di Rodolfo II) approvò che Keplero ricoprisse la carica di “matematico territoriale (Landschaftsmathematiker)” a Linz (Austria), pur mantenendo la nomina di “matematico imperiale” e quindi l’obbligo di portare avanti l’elaborazione delle Tabulae Rudolphine.

Il 30 ottobre 1613 Keplero si sposò per la seconda volta, con la ventiquattrenne Susanna Reuttinger, dalla quale ebbe altri sei figli, tre dei quali morti nell’infanzia.

Il 15 maggio 1618 Keplero scoprì la terza legge che prende il suo nome, che rese nota l’anno dopo nell’opera “Harmonices mundi”. Nell’agosto 1620 la madre di Keplero venne accusata di stregoneria dalla Chiesa protestante e rilasciata solo nell’ottobre 1621; il processo durò sei anni e Keplero assunse la sua difesa.

Lo scienziato, in disgrazia e in povertà, morì nel 1630 a 58 anni a Ratisbona e venne qui sepolto presso il Cimitero di San Pietro. La sua tomba si perse nel 1632 quando le truppe di Gustavo Adolfo (impegnate nell’invasione della Baviera durante la guerra dei trent’anni) distrussero il cimitero; rimane però la lapide dove ancora oggi si può leggere l’epitaffio da lui stesso composto: “Mensus eram coelos, nunc terrae metior umbras. Mens coelestis erat, corporis umbra iacet” (“Misuravo i cieli, ora fisso le ombre della terra. La mente era nella volta celeste, ora il corpo giace nell’oscurità”).

In “Astronomia nova” Keplero enunciò due delle tre leggi che portano il suo nome. La terza comparve nel “Harmonices mundi libri quinque” del 1619. Le tre leggi di Keplero rappresentano un modello di descrizione del moto dei pianeti del sistema solare:

1.) L’orbita descritta da ogni pianeta nel proprio moto di rivoluzione è un’ellisse di cui il Sole occupa uno dei due fuochi.

sistema1.png

2.) Durante il movimento del pianeta, il raggio che unisce il centro del Pianeta al centro del Sole (raggio vettore) descrive aree uguali in tempi uguali. (Nel 1966 Koyrè, percorrendo i calcoli tortuosi di Keplero, concluse che questa legge è stata derivata da una premessa errata, e cioè che la velocità della Terra sia inversamente proporzionale alla sua distanza dal Sole, e con calcoli errati. Inoltre stabilì che questa legge venne ricavata prima della legge delle orbite ellittiche. La legge comunque è esatta ed è una semplice conseguenza della conservazione del momento angolare).

sistema2.png

3.) Il quadrato del periodo di rivoluzione di un pianeta è proporzionale al cubo della sua distanza media dal Sole.

sistema3.png

Keplero ereditò da Tycho Brahe una gran quantità dei più precisi dati mai raccolti sulle posizioni dei pianeti. Il problema era dare loro un senso. I movimenti orbitali e gli altri pianeti sono visti dal punto vantaggioso della Terra, che orbita a sua volta intorno al Sole. Questo fa sì che i pianeti sembrino muoversi disegnando strane curve. Keplero volle concentrarsi sull’orbita di Marte anche se prima avrebbe dovuto studiare accuratamente l’orbita della Terra. Per far questo ebbe bisogno di una linea di base da topografo. Con un colpo di genio usò come linea di base il Sole e una delle due intersezioni dell’orbita di Marte con il piano dell’eclittica. Marte era particolarmente adatto allo scopo proprio perché la sua orbita ha la massima inclinazione con tale piano. Usando tale base poté calcolare le posizioni della Terra e ricavare poi l’intera orbita di Marte. Egli fu inoltre capace di dedurre le sue leggi sui pianeti senza conoscere le esatte distanze dei pianeti dal Sole, poiché le sue analisi geometriche richiedevano solo il rapporto tra le rispettive distanze dal Sole.

Keplero, a differenza di Tycho Brahe, appoggiò il modello eliocentrico del sistema solare e partendo da questo per vent’anni provò a dare un senso ai suoi dati. Alla fine giunse a formulare le sue tre leggi sui movimenti planetari che enunciò nelle tavole rudolfine, così chiamate in onore di Rodolfo II d’Asburgo, Imperatore del Sacro Romano Impero. In tali tavole introdusse anche i logaritmi neperiani per agevolare i calcoli astronomici.

La straordinaria importanza delle scoperte di Keplero non fu immediatamente riconosciuta. Fortemente interessato a tematiche mistiche e metafisiche di natura platonica e pitagorica, la sua “modernità” consiste nella ricerca delle variazioni quantitative delle forze che agiscono nello spazio e nel tempo e nel parziale abbandono del punto di vista animistico in favore di un meccanicismo allo stato embrionale.

La terza legge permette di stabilire la velocità del corpo celeste una volta stabilita l’orbita e viceversa. Si era scoperta una legge che non regolava semplicemente i moti dei pianeti nelle proprie orbite, ma si stabiliva un rapporto tra la velocità dei corpi che si muovono in orbite differenti. Galilei si congratulò con lui per avere accolto il Copernicanesimo ma non si pronunciò sul resto, aggiungendo che alcuni dei suoi pensieri fossero “piuttosto a diminuzione della dottrina del Copernico che a stabilimento” (Galilei). Bacone, pur essendo molto legato alla tradizione ermetica, lo ignorò e Cartesio lo riconobbe come il suo primo maestro di ottica, non considerando il resto come degno di attenzione. Solo dopo che Newton si servì delle leggi di Keplero, queste vennero accettate dalla comunità scientifica, ma non prima degli anni sessanta del Seicento.

La comunità scientifica gli ha dedicato l’asteroide 1134 Kepler, un cratere lunare di 31 km di diametro, un cratere sul pianeta Marte di 233 km di diametro, una cresta di 15 km di lunghezza su Fobos (uno dei due satelliti di Marte) e Kepler-22 b, il pianeta più simile alla Terra scovato finora nell’Universo, che orbita attorno a Kepler-22, una stella nana gialla situata nella costellazione del Cigno e il telescopio spaziale Kepler della NASA.

Possiamo dunque dire che Giovanni Keplero non riuscì a comprendere quali forze costringessero i pianeti a muoversi secondo le sue leggi. Fu Isaac Newton che, cinquant’anni dopo, le dimostrò, enunciando la legge della gravitazione universale.

La prossima volta parleremo di forze, lavoro ed energia, per entrare nel cuore della fisica “classica”.

Torna al menu

 Lavoro ed Energia, energia e leggi di conservazione

8

L’altro giorno un mio amico, lettore di questo blog, mi ha detto di essere rimasto indietro nella lettura degli articoli. La cosa mi ha fatto riflettere, tanto che mi sono chiesto se non fosse il caso di fare un po’ d’ordine e sistemare in maniera organizzata quanto da me scritto finora qui. A volte mi sono ripetuto, ho parlato dello stesso argomento più volte, ma mentre pensavo a quello mi è venuto in mente quanto da me scritto sul progetto “Libro di fisica by dummy” (by, non for, sia chiaro).

Il progetto di parlare di Fisica ha avuto uno stop fisiologico: mi sono dedicato ad altri argomenti. Ma, come il più caparbio dei testardi, riprendo. Ricapitolando, in principio ho “introdotto” l’argomento, con un piccolo “approfondimento“, ho poi parlato di “cinematica” e “dinamica“, trattando anche le figure di grandi scienziati come Keplero e Marie Curie.

Oggi mi occuperò di lavoro, ma solo nel senso della fisica! L’ho specificato, non si sa mai, anche perché non voglio entrare in polemiche politiche…

In fisica si definisce “lavoro” il prodotto dello spostamento per la forza necessaria ad effettuarlo, oppure si dice che quando una forza genera uno spostamento, ha compiuto un “lavoro”. La formula è semplice

formula lavoro

La forza, se ricordate, ne abbiamo già parlato, si esprime in Newton; lo spostamento in metri: il lavoro risultante da una forza di 1 N che provoca uno spostamento di 1 m compie un lavoro di 1 J (joule). Ma per capire meglio, facciamo un paio di esempi.

Se per sollevare una valigia uso una forza di 30 newton e la sollevo a 50 cm da terra, secondo la formula di prima avrò un lavoro di 30 n x 0,5 m = 15 J. Se mi sposto con la valigia, non compirò alcun lavoro, perché non sollevo né abbasso la valigia, quindi il lavoro nel senso della fisica è nullo, anche se muscolarmente devo compiere uno sforzo per tenere la valigia sollevata da terra.

Se io non sollevassi la valigia, ma la strisciassi per spostarla? Farei meno fatica, ma il lavoro non sarebbe nullo, ma la risultante della forza applicata per strisciarla per l’entità dello spostamento.

Questo perché nell’uso comune la parola “lavoro” è associata alla “fatica” che facciamo a compiere qualcosa. Sembra impossibile il fatto che se camminiamo in piano per 20 km uno zaino da 30 kg sulle spalle non compiamo nessun lavoro… Eppure in fisica è così. Abbiamo fatto fatica ma sullo zaino non abbiamo fatto neppure un joule di lavoro.

Un altro esempio che sembra assurdo: un camminatore esce di casa e si fa un giro di 24 chilometri, salendo in montagna ad alta quota, poi torna a casa; quanto lavoro ha compiuto in totale? Zero! Lo spostamento totale è nullo, perché è tornato dove era partito…

L’esempio del camminatore ci fa scoprire un’altra cosa. Se è salito in montagna ha fatto uno spostamento verticale vincendo la forza di gravità, per cui ha sicuramente compiuto un lavoro. Eppure il lavoro totale una volta tornato a casa è nullo. Questo significa solo una cosa: scendendo egli ha compiuto un lavoro negativo che ha annullato quello fatto in salita.

Il concetto di lavoro negativo può essere capito meglio se visto come lavoro ricevuto. Il lavoro che si fa è positivo, quello che si riceve è negativo. Come un ciclista che in una discesa si vede restituire il lavoro fatto in salita.

Visto questo, cerchiamo di capire qual è la discriminante.

A giugno ho fatto il trasloco (l’ennesimo), e mi ha aiutato un gruppo di amici a portare gli scatoloni dal parcheggio al piano. Tutti abbiamo compiuto un lavoro, ma mentre Alessandro ha portato 15 scatoloni, nello stesso tempo io ne ho portati 10, pur compiendo lo stesso lavoro. È appunto il tempo la discriminante.

La persona più potente è stata quella più veloce, nel senso che ha portato più pacchi (e se vedeste Alessandro, che è una montagna, capireste). La potenza in fisica infatti è definita come il rapporto tra il lavoro compiuto e il tempo impiegato a compierlo ed è indicato dalla formula:

formula potenza

L’unità di misura della potenza è il watt (W): un watt è la potenza sviluppata compiendo un lavoro di un joule in un secondo.

Se avessimo avuto un montacarichi, la potenza usata sarebbe stata quella del mezzo usato per sollevare gli scatoloni, sicuramente maggiore di quella umana. Infatti sui montacarichi, sulle gru, e nei vari apparecchi elettrici che abbiamo in casa si legge la misura della potenza in Watt.

È importante ricordare il legame tra la potenza e il tempo: una moto potentissima ci può portare in cima ad un passo alpino, ma è un lavoro che si potrebbe fare anche a piedi; l’unica differenza è il tempo in cui si arriva…

Dunque il lavoro, cioè la forza che usiamo per spostare un oggetto, può essere effettuato in più o meno tempo, usando quindi più o meno potenza.

A questo punto entra in ballo un nuovo concetto, che in fisica è fondamentale: l’energia. Con “energia” intendiamo la capacità di compiere un lavoro. Chiunque o qualunque macchina che compie un lavoro, deve usare una qualche forma di energia, elettrica, elastica o chimica, per esempio.

Anche l’energia si misura in Joule, così da mostrare il suo stretto legame con il lavoro. Oppure possiamo pensare che il lavoro è una forma particolare di energia. L’energia si presenta in molte forme, appunto.

Uno dei concetti fondamentali della fisica è che l’energia non si crea né si distrugge, ma si trasforma. Quella contenuta nei corpi in movimento ha un nome particolare: energia cinetica, dal greco κίνησις (kinesis), movimento, energia.

Una freccia contiene abbastanza energia cinetica da vincere l’attrito con il bersaglio conficcandosi in esso. Una palla da pallavolo viene alzata molto alta dandole una forte velocità verticale.

L’energia cinetica si può calcolare con questa formula:

formula energia cinetica

È evidente che più un corpo è massiccio e più contiene energia. Inoltre l’energia cinetica aumenta con il quadrato della velocità: se la velocità raddoppia l’energia quadruplica.

Ma anche ogni oggetto che si trova ad una certa altezza possiede un’energia, solo che ancora non l’ha espressa. Per questo motivo si chiama energia potenziale e ha una formula semplice, legata alla massa, all’altezza e all’attrazione gravitazionale:

U=m⋅g⋅h

Sulla Terra (ricordate?) la g, accelerazione gravitazionale, vale 9,81 m/s2

Questa espressione però è valida solamente vicino alla superficie terrestre dove g si può considerare costante. Se cadiamo dal balcone, la nostra energia potenziale è data dal prodotto della nostra massa (meglio ometterla, soprattutto dopo le feste natalizie) per la costante gravitazionale per l’altezza dal suolo, perché è lì che cadremo.

Esiste un altro tipo di energia, detta energia meccanica. L’energia meccanica è la somma di energia cinetica ed energia potenziale attinenti allo stesso sistema, da distinguere dall’energia totale del sistema E.

Quando due sistemi si scambiano tra loro energia meccanica, tale energia in transito è definita lavoro. Dunque l’energia meccanica può essere posseduta da un sistema e scambiata con altri sistemi, mentre il lavoro corrisponde solamente alla parte di energia meccanica che è scambiata.

Ecco la differenza che cercavamo prima.

Esistono altri tipi di energia, quella elastica, come quella delle molle, o come l’energia termica, contenuta da tutti i corpi con temperatura superiore allo zero assoluto.

Ma il concetto interessante è quello che dicevo prima, cioè che qualunque cosa facciamo, ci sarà una trasformazione e l’energia iniziale di un sistema sarà sempre lì, non potrà quindi essere distrutta. Facciamo un esempio.

Se giochiamo a basket, sappiamo cosa vuol dire palleggiare, cioè far rimbalzare la palla sul pavimento spingendola con la mano. Il pallone ha una certa altezza, per cui contiene energia potenziale gravitazionale; durante la caduta questa energia si trasforma in energia cinetica, fino a raggiungere la velocità massima un attimo prima di toccare il pavimento; colpendo il pavimento la palla si deforma e di conseguenza la sua energia cinetica diventa elastica; i passaggi adesso avvengono all’inverso: elastica → cinetica → gravitazionale. In più, ad ogni rimbalzo, una parte dell’energia si trasforma in calore a causa dell’attrito interno della palla che si deforma; è per questo che ogni rimbalzo sarà un po’ più basso del precedente (meno energia potenziale gravitazionale significa altezza h minore).

Esiste quindi una legge che ci permette di non sprecare l’energia. Si chiama “conservazione dell’energia meccanica”.

In generale, esistono due tipi di forze. Le forze conservative conservano l’energia meccanica, come la forza di gravità (l’altezza diminuisce mentre la velocità aumenta). Le forze dissipative non conservano l’energia meccanica, come la forza di attrito (l’energia cinetica viene trasformata in energia termica). Come esempio prendiamo un ottovolante, come il Magic Mountain di Gardaland.

Il veicolo viene portato ad una certa altezza tramite motori elettrici, poi viene semplicemente lasciato scorrere sulle rotaie. Il treno accelera rapidamente sulla discesa: la forza di gravità trasforma l’energia potenziale gravitazionale in energia cinetica; incontrando le salite (e i giri della morte), l’energia cinetica accumulata consente al treno di salire fino ad una certa altezza, con la trasformazione inversa a energia potenziale. In tutto questo l’energia meccanica (somma di potenziale e cinetica) viene conservata.

Nel frattempo, però, due forze di attrito agiscono sul veicolo e sui suoi passeggeri: l’attrito volvente delle ruote sulle rotaie e quello fluidodinamico dell’aria. L’attrito abbassa l’energia cinetica senza trasformarla in potenziale (è una forza non conservativa), ma in energia termica (calore). Per questo motivo, il treno non potrebbe mai ritornare da solo alla stessa altezza di partenza.

Ma esiste anche un’altra, importante legge di conservazione: quella della quantità di moto. Si chiama “quantità di moto” la grandezza fisica che si calcola moltiplicando la massa per la velocità di un corpo. La quantità di moto è una grandezza vettoriale, perché lo è la velocità; la sua unità di misura è il chilogrammo per metro al secondo (kg·m/s).

Tramite questa nuova grandezza fisica, si possono osservare i principi della dinamica da un altro punto di vista.

Se su un sistema non agiscono forze esterne, la quantità di moto totale del sistema si conserva. Un sistema può non essere costituito da un solo corpo, ma da un insieme di oggetti o addirittura dal l’intero Universo.

Per esempio, due automobili uguali hanno la stessa quantità di moto totale sia se sono ferme, sia se si muovono alla stessa velocità in direzioni opposte. In entrambi i casi la quantità di moto del sistema vale zero. La cosa non vale per l’energia cinetica totale, che è nulla solo se le macchine sono ferme.

Sulla conservazione della quantità di moto si basa in pratica il terzo principio della dinamica, quello di azione e reazione.

L’elica di un motoscafo spinge indietro una massa d’acqua, e dato che la p totale del sistema barca-acqua non può cambiare, l’imbarcazione si muove nel verso opposto. Considerando un sistema un po’ più ampio, anche una persona che cammina si muove secondo lo stesso principio: con il piede la persona spinge indietro il pianeta Terra, e per pareggiare i conti il corpo della persona si sposta in avanti. Sembra incredibile ma è vero: una sola persona può spostare la Terra. Ma la quantità di moto in questo caso è molto bassa, per cui dato che la massa della terra è enorme la sua velocità è talmente piccola da non essere neppure osservabile.

A volte si può fare confusione tra energia cinetica e quantità di moto, e sulla loro conservazione. La teoria degli urti chiarisce bene il concetto.

Quando due corpi si urtano c’è un trasferimento di energia. La cosa avviene in due modi principali (e in tutte le sfumature intermedie): urti elastici e urti anelastici.

La differenza tra i due tipi di urti, come suggerito dal loro nome, è nella elasticità dei corpi. Un corpo è perfettamente elastico se, una volta deformato, è in grado di ritornare da solo alla forma iniziale.

Un urto elastico è quello che può avvenire tra due monete che vengono fatte scivolare su un tavolo. Provate a mettere una moneta ferma sul piano del tavolo; fate scivolare una seconda moneta fino a colpire la prima. Se avete preso bene la mira, la moneta che avete lanciato si fermerà, mentre quella che era ferma scivolerà via, come se si fossero scambiate magicamente. In realtà l’unico scambio è quello della quantità di moto: essa si è trasferita da una moneta all’altra, in modo tale che la p totale del sistema (le due monete) rimanga costante. La moneta che avete lanciato si ferma del tutto perché l’urto è completamente elastico: il metallo si è deformato ed è subito ritornato alla forma iniziale. In questo tipo di urto non si conserva solo la quantità di moto, ma anche l’energia cinetica totale: nel passaggio da una moneta all’altra non c’è stata dispersione perché l’energia che ha deformato i corpi è stata poi restituita tramite la forza elastica.

Sul principio degli urti elastici si basa il funzionamento del famoso soprammobile chiamato “pendolo di Newton”. La pallina di metallo ne colpisce una ferma; questa non si può muovere e trasferisce subito la p a quella successiva; la cosa si ripete fino a quando la quantità di moto viene passata all’ultima sferetta, libera di muoversi: essa compie una mezza oscillazione e il ciclo ricomincia.

In un urto anelastico i corpi coinvolti si deformano definitivamente, e proseguono il movimento insieme. La velocità dopo l’urto dipende dalle masse dei due corpi; se in particolare le masse sono identiche e prima dell’urto uno dei due corpi era fermo e l’altro si muoveva con velocità v, dopo lo scontro i due corpi proseguiranno la corsa a velocità v/2.

Con masse diverse la cosa cambia. Facciamo un esempio un po’ estremo: un moscerino che si spiaccica sul parabrezza di un’automobile. Un attimo prima dell’urto l’insetto è praticamente fermo, mentre l’automobile viaggia a grande velocità. L’urto è senza dubbio anelastico, perché il povero moscerino si deforma senza speranza. Il sistema prosegue la corsa con una velocità tale da conservare la quantità di moto totale: questa velocità è minore di quella che aveva l’auto prima dell’impatto, ma la differenza è minuscola perché la massa dell’insetto è piccolissima rispetto a quella della macchina.

Negli urti anelastici continua a valere la conservazione della quantità di moto, ma la cosa non vale per l’energia cinetica. Infatti durante il trasferimento di energia da un corpo all’altro, una parte viene utilizzata per la deformazione e di conseguenza viene trasformata in calore.

Sul principio degli urti anelastici si basa lo studio delle deformazioni meccaniche della carrozzeria durante un incidente stradale. Le vetture moderne si deformano molto anche con urti a bassa velocità, in modo da disperdere il più possibile l’energia cinetica e ridurre i danni ai passeggeri.

Ricordiamoci sempre che nel mondo reale non esistono gli estremi assoluti. Gli urti reali non possono essere completamente elastici o anelastici: anche nello scontro tra le due monete una piccola parte di energia viene trasformata in calore durante la piccola e rapida deformazione del metallo.

Per piantare un chiodo nel muro non è sufficiente la forza di un uomo, a meno che egli non abbia un martello. Eppure il martello non è una leva, non aumenta la forza muscolare della persona. Come è possibile che il chiodo si pianti così facilmente? Il segreto sta nel fatto che la testa metallica del martello fa forza sulla testa del chiodo in modo rapidissimo, con un urto elastico.

A questo punto ci serve una nuova grandezza fisica, l’impulso: è una grandezza vettoriale che si misura in newton per secondo (N·s), ed è legato alla quantità di moto dei corpi da un principio chiamato “teorema dell’impulso”, che in realtà è un altro modo di vedere il secondo principio della dinamica. La variazione della quantità di moto totale è uguale all’impulso della forza che agisce su un sistema.

Vediamolo applicato al martello. La testa metallica viene portata ad una certa velocità dalla forza del braccio, che agisce per un tempo relativamente lungo. La sua variazione di quantità di moto è determinata da un impulso I esercitato da chi impugna il martello. Quando avviene l’impatto con il chiodo, il martello si ferma bruscamente in un tempo molto piccolo. Dato che la variazione della quantità di moto è la stessa sarà uguale anche l’impulso, solo che questa volta il tempo è piccolissimo e di conseguenza la forza sarà molto alta. Questa è la “magia” delle semplici formule fisiche composte solo da un prodotto (quelle, per capirci, che possono essere rappresentate con un triangolo): c’è una proporzionalità semplice semplice. Quando l’impulso è costante, se il tempo si dimezza la forza raddoppia, e viceversa.

Il martello è fatto apposta per massimizzare la cosiddetta “forza d’urto”, mentre a volte è utile ridurre questa forza al massimo. Per esempio, nel salto con l’asta gli atleti atterrano su un grosso materasso, senza farsi male. Il materasso in pratica allunga il tempo durante il quale il corpo del saltatore azzera la sua velocità di caduta: tempo più lungo significa forza minore, per cui nessun danno.

La prossima volta, quando sarà, approfondirò l’energia termica, parlando di temperatura e calore.

Torna al menu

Temperatura e calore

9

Mi sono sempre chiesto come doveva essere, per uno scienziato vissuto tra il 1700 e il 1800, assistere al continuo mutare delle scoperte scientifiche: in quel periodo, lungo per la vita di un uomo, ma breve rispetto alla storia dell’umanità, sono state poste le basi del moderno sapere, con un crescendo di scoperte, partendo da Galileo e, passando per Newton, arrivando ad Einstein. È stato un po’ essere come gli uomini del mito della caverna di Platone.

Platone, per bocca di Socrate, immaginò degli uomini chiusi in una caverna, gambe e collo incatenati, impossibilitati a volgere lo sguardo indietro, dove ardeva un fuoco. Tra la luce del fuoco e gli uomini incatenati vi era una strada rialzata e un muricciolo, sopra la strada alcuni uomini parlavano, portavano oggetti, si affaccendavano nella vita di tutti i giorni.

Gli uomini incatenati non potevano conoscere la vera esistenza degli uomini sulla strada poiché ne percepivano solo l’ombra proiettata dal fuoco sulla parete di fronte e l’eco delle voci, che scambiavano per la realtà.

Se un uomo incatenato potesse finalmente liberarsi dalle catene potrebbe volgere lo sguardo e vedere finalmente il fuoco, venendo così a conoscenza dell’esistenza degli uomini sopra il muricciolo di cui prima intendeva solo le ombre.

In un primo momento, l’uomo liberato, verrebbe abbagliato dalla luce, la visione delle cose sotto la luce lo spiazzerebbe in forza dell’abitudine alle ombre maturata durante gli anni, ma avrebbe comunque il dovere di mettere al corrente i compagni incatenati.

I compagni, in un primo momento, riderebbero di lui, ma l’uomo liberato non potrebbe ormai tornare indietro e concepire il mondo come prima, limitandosi alla sola comprensione delle ombre.

Ecco, gli scienziati del periodo che ho citato dovevano essere più o meno così…

Come dite, alcuni di voi vivono come quegli uomini? Ecco qui allora una nuova lezione di fisica!

In “Lavoro e energia” ho parlato di lavoro, energia e conservazione della stessa. Oggi parlerò di temperatura e calore.

Come ho detto più volte su queste pagine, sappiamo che tutte le cose sono composte da atomi, piccole particelle che rispondono a determinate leggi.

Prendiamo, per esempio, una goccia d’acqua.

Se mettiamo una goccia d’acqua sul vetrino di un microscopio, ci sembrerà a prima vista omogenea e senza interruzioni. Anche mettendo il vetrino nel microscopio e ingrandendola di circa duemila volte, sembrerebbe omogenea, con dei piccoli oggetti all’interno che nuotano di qua e di là.

Sono dei parameci, piccoli organismi unicellulari che si nutrono di batteri, ma visto che qui parliamo di fisica e non di biologia, andiamo avanti, e ingrandiamo la goccia altre duemila volte. Osservandola, noteremo una sorta di movimento e la goccia non sembra più tanto omogenea. Per capirci qualcosa, ingrandiamola altre duecentocinquanta volte (totale, un miliardo di ingrandimenti) e finalmente vedremo le molecole che compongono l’acqua.

Ad occhio e croce la figura 1 rappresenta ciò che vedremo:

acqua ingrandita un miliardo di volte

Fig. 1

Ovviamente quella riportata in fig. 1 è una schematizzazione, bidimensionale per giunta, di ciò che si vede al microscopio. Nella visione tridimensionale i cerchietti sono palline, e quelli neri, più grandi, rappresentano gli atomi di ossigeno e quelli bianchi, più piccoli, gli atomi di idrogeno. Come dicevo, ogni gruppo di 1 ossigeno e 2 idrogeni si chiama molecola.

Oltre a non essere reale dal punto di vista grafico, il disegno ha un’altra caratteristica che ne limita la rappresentatività della realtà: la staticità. Infatti le vere particelle non stanno mai ferme, si muovono e rimbalzano tra loro.

Gli atomi, come abbiamo capito, hanno un raggio molto piccolo, cioè 1 o 2×10-8 cm, e siccome 10-8 cm equivalgono ad un angstrom, diremo che gli atomi hanno un raggio di 1 o 2 angstrom (Å).

Per capire quali siano le proporzioni, pensiamo di ingrandire una mela fino a raggiungere le dimensioni della Terra: i suoi atomi avranno all’incirca le dimensioni iniziali della mela.

Ora, se scaldiamo l’acqua, ci accorgiamo di una cosa: il movimento brulicante di prima aumenta. L’agitazione è quello che noi chiamiamo calore.

Ma non solo. Aumentando l’agitazione, aumentano gli urti e le particelle rimbalzeranno sempre più lontane le une dalle altre, aumentando il volume occupato, finché l’attrazione molecolare non sarà più sufficiente a trattenerle insieme, ed esse si allontaneranno le une dalle altre.

Ovviamente quello che abbiamo appena descritto si chiama vapore acqueo. Vediamo la fig. 2:

vapore ingrandito un miliardo di volte

Fig. 2

Anche questa è una rappresentazione ideale: in una ipotetica fotografia di uno spazio in cui ci sia del vapore, potremmo non vedere nessuna molecola.

Nel vapore le caratteristiche delle molecole si vedono meglio che nell’acqua, perché le vediamo singolarmente. Nel disegno l’angolo tra gli atomi di idrogeno è di 120°, mentre in realtà misura 105°3′, e la distanza tra il centro di un idrogeno e il centro dell’ossigeno è 0,957 Å. Le molecole, separate l’una dall’altra, rimbalzano contro le pareti.

Questi rimbalzi sono quelli che noi chiamiamo pressione, per contrastare la quale e quindi per confinare il gas (il vapore è un gas, e il discorso vale per tutti i suoi “colleghi”) a nostra volta dobbiamo applicare una pressione. Nei libri di fisica troviamo in genere figure come quella di fig. 3

vapore nel pistone

Fig. 3

Intuitivamente capiamo che se si aumenta l’area, sollevando il pistone, gli urti aumenteranno perché avranno una maggiore superficie da colpire: la forza che si esercita sull’unità di superficie prende il nome di pressione; la forza totale è data quindi dal prodotto della pressione per l’area. Ora mettiamo in questo recipiente il doppio di molecole, in modo da raddoppiarne la densità, lasciando invariata la velocità, cioè la temperatura del gas. Allora, con buona approssimazione, il numero di urti verrà raddoppiato e, dato che ciascuno sarà tanto «energico» quanto prima, la pressione sarà doppia.

E se aumentiamo la temperatura lasciando inalterata la densità del gas, cioè se aumentiamo la velocità degli atomi, cosa succede alla pressione? Be’, gli atomi colpiscono più forte perché si muovono più velocemente, e inoltre colpiscono più spesso, quindi la pressione aumenta.

La stessa cosa accade se il pistone si abbassa: la velocità degli urti aumenterà e visto che prima abbiamo detto che il calore è proporzionale alla velocità, gli atomi si scalderanno.

Tutti gli atomi nel recipiente sono “più caldi” dopo aver colpito il pistone, hanno guadagnato velocità, il che significa che quando comprimiamo lentamente un gas, la sua temperatura aumenta. Un gas si scalda se viene sottoposto a una lenta compressione, e si raffredda sotto una lenta espansione.

Al contrario, se raffreddiamo la nostra goccia d’acqua iniziale, comprendiamo che la velocità diminuirà, fino a fermarsi. È quello che noi chiamiamo ghiaccio. È come vedere la fig. 1, ma stavolta gli atomi sono fermi per davvero (in realtà non sono proprio fermi, ma questa è un’altra storia).

I solidi sono fatti così. Hanno gli atomi in posizioni fisse (detto reticolo cristallino) e il ghiaccio è una forma particolare di “solido”. Come ricordiamo dalla fig. 1, c’è dello spazio tra le molecole, e questo spiega perché il ghiaccio diminuisce di volume quando si scioglie.

Quasi tutte le sostanze semplici, a eccezione dell’acqua e del metallo tipo, si espandono quando si sciolgono: nel cristallo solido, infatti, gli atomi sono strettamente stipati, mentre allo stato liquido hanno bisogno di più spazio per muoversi; ma una struttura aperta, come quella dell’acqua, si contrae.

Ricapitolando, la temperatura è una misura dell’agitazione termica di una sostanza ovvero una misura indiretta dell’energia cinetica media delle molecole che costituiscono la sostanza. Noi la misuriamo con il termometro.

La materia è presente in tre configurazioni principali. Vediamoli.

  • Stato Solido:
    • Struttura microscopica ordinata;
    • Forze di coesione intense;
    • Particelle oscillano intorno a posizioni di equilibrio, senza spostarsi.
  • Stato Liquido:
    • Struttura microscopica disordinata;
    • Forze di coesione deboli;
    • Le molecole si muovono, ma le distanze reciproche variano poco.
  • Stato Gassoso:
    • Forze di coesione trascurabili;
    • Le molecole occupano tutto lo spazio a disposizione;
    • Fortemente comprimibili.

Indipendentemente dallo stato di aggregazione, le molecole sono soggette continuamente a un moto di agitazione termica: più grande è l’agitazione termica, maggiore è la temperatura.

La termodinamica, che studia le trasformazioni subite da un sistema in seguito a processi che coinvolgono la trasformazione di calore in lavoro e viceversa, si basa su quattro leggi, detti “principi della termodinamica”: essi vennero enunciati nel corso del XIX secolo e regolano le trasformazioni termodinamiche, il loro procedere, i loro limiti. Sono dei veri e propri assiomi, non dimostrati e indimostrabili, fondati sull’esperienza, sui quali si fonda tutta la teoria che riguarda la termodinamica.

Si possono distinguere tre principi di base, più un principio “zero” che definisce la temperatura, e che è implicito negli altri tre.

  • Principio zero:

Quando due sistemi interagenti sono in equilibrio termico condividono alcune proprietà, che possono essere misurate dando loro un preciso valore numerico. Di conseguenza, quando due sistemi sono in equilibrio termico con un terzo, sono in equilibrio tra loro e la proprietà condivisa è la temperatura. Il principio zero della termodinamica dice semplicemente che, se un corpo “A” è in equilibrio termico con un corpo “B” e “B” è in equilibrio termico con un corpo “C”, allora “A” e “C” sono in equilibrio tra loro. Tale principio spiega il fatto che due corpi a temperature diverse, tra i quali si scambia del calore, (anche se questo concetto non è presente nel principio zero) finiscono per raggiungere la stessa temperatura. Nella formulazione cinetica della termodinamica il principio zero rappresenta la tendenza a raggiungere un’energia cinetica media comune degli atomi e delle molecole dei corpi tra i quali avviene scambio di calore: in media, come conseguenza degli urti delle particelle del corpo più caldo, mediamente più veloci, con le particelle del corpo più freddo, mediamente più lente, si avrà passaggio di energia dalle prime alle seconde, tendendo dunque ad uguagliare le temperature. L’efficienza dello scambio di energia determina i calori specifici degli elementi coinvolti.

  • Primo principio

Quando un corpo viene posto a contatto con un altro corpo relativamente più freddo avviene una trasformazione che porta a uno stato di equilibrio nel quale sono uguali le temperature dei due corpi. Per spiegare questo fenomeno gli scienziati del XVIII secolo supposero che una sostanza, presente in maggior quantità nel corpo più caldo, passasse nel corpo più freddo. Questa sostanza ipotetica, detta calorico, era pensata come un fluido capace di muoversi attraverso la massa chiamata impropriamente materia. Il primo principio della termodinamica invece identifica il calore come una forma di energia che può essere convertita in lavoro meccanico ed essere immagazzinata, ma che non è una sostanza materiale. È stato dimostrato sperimentalmente che il calore, misurato originariamente in calorie, e il lavoro o l’energia, misurati in joule, sono effettivamente equivalenti. Ogni caloria equivale a circa 4,186 joule. Il primo principio è dunque un principio di conservazione dell’energia. In ogni macchina termica una certa quantità di energia viene trasformata in lavoro: non può esistere nessuna macchina che produca lavoro senza consumare energia. Una simile macchina, se esistesse, produrrebbe infatti il cosiddetto moto perpetuo di prima specie. Il primo principio viene tradizionalmente enunciato come: “La variazione dell’energia interna di un sistema termodinamico chiuso è uguale alla differenza tra il calore fornito al sistema e il lavoro compiuto dal sistema sull’ambiente.” La corrispondente formulazione matematica si esprime come: ΔU = Q – L, dove U è l’energia interna del sistema, Q il calore fornito al sistema e L il lavoro compiuto dal sistema. Per energia interna si intende la somma delle energie cinetiche e di interazione delle diverse particelle di un sistema. Q è il calore scambiato tra ambiente e sistema (positivo se fornito al sistema, negativo se invece ceduto dal sistema) e L il lavoro compiuto (positivo se compiuto dal sistema sull’ambiente, negativo invece se compiuto dall’ambiente sul sistema). La convenzione dei segni risente del legame con lo studio dei motori termici, nei quali il calore viene trasformato (parzialmente) in lavoro.

  • Secondo principio

Esistono diversi enunciati del secondo principio, tutti equivalenti, e ciascuna delle formulazioni ne mette in risalto un particolare aspetto. Esso afferma che «è impossibile realizzare una macchina ciclica che abbia come unico risultato il trasferimento di calore da un corpo freddo a uno caldo» (enunciato di Clausius) o, equivalentemente, che «è impossibile realizzare una trasformazione il cui risultato sia solamente quello di convertire in lavoro meccanico il calore prelevato da un’unica sorgente» (enunciato di Kelvin). Quest’ultima limitazione nega la possibilità di realizzare il cosiddetto moto perpetuo di seconda specie. L’entropia totale di un sistema isolato rimane invariata quando si svolge una trasformazione reversibile ed aumenta quando si svolge una trasformazione irreversibile.

  • Terzo principio

È strettamente legato al secondo, e in alcuni casi è considerato come una conseguenza di quest’ultimo. Può essere enunciato dicendo che “è impossibile raggiungere lo zero assoluto con un numero finito di trasformazioni” e fornisce una precisa definizione della grandezza chiamata entropia. Esso afferma inoltre che l’entropia per un solido perfettamente cristallino, alla temperatura di 0 kelvin è pari a 0.

Gli umani subiscono il fascino delle macchine del moto perpetuo sin dal Medioevo. Questo perché, in teoria, una macchina in grado di funzionare senza una fonte di energia cambierebbe del tutto il nostro approccio all’energia. L’unico problema è che la teoria del moto perpetuo, come abbiamo visto, è in contraddizione coi principi della termodinamica, che significa che, tecnicamente, è fisicamente impossibile da realizzare.

Questo non ha tuttavia impedito alla gente di provare ad aggirare l’ostacolo. L’esempio più famigerato è stato Johann Bessler, un orologiaio tedesco del diciottesimo secolo che convinse un sacco di gente, compreso Pietro il Grande, Zar di Russia, di aver creato una macchina a forma di ruota che realizzava il moto perpetuo e che potesse fare sollevare pesi e scaricare acqua. Tuttavia, proibì a chiunque di guardare dentro il suo apparecchio e si rifiutò di divulgare il suo segreto per paura che glielo rubassero.
Il che non ispira poi tanta sicurezza. Quindi se qualcuno prova a vendervi l’idea di una macchina per produrre energia a costo zero, prima di accettare, pensateci…

Torna al menu

Trasformazioni termodinamiche

10

Credo che la divulgazione scientifica sia importante.

Credo che sia giusto cercare di spiegare la scienza in un modo che sia comprensibile, e di coinvolgere la gente, poiché sono convinto che la scienza sia tra le cose più belle e grandiose che l’essere umano sappia fare, tra le poche cose che ci caratterizzano e ci distinguono da tutte le altre specie.

Purtroppo, però, mi rendo conto che le battaglie da fare sono molteplici.

Me ne rendo conto quando sento comitati di cittadini controbattere gli studi scientifici di questo o quell’immunologo, pur non avendo la stessa conoscenza dell’argomento.

Me ne rendo conto ogni qual volta gente priva di qualunque competenza sentenzia su un esperimento per lo studio dei neutrini, confondendo reazioni nucleari con radioattività.

Potrei andare avanti per molto, dalla Xylella ai vaccini, dalle scie chimiche alla scienza “quantica”, dalla Stamina alla terra piatta.

Forse questo analfabetismo funzionale dilagante è colpa di chi ama la scienza e, per foga di spiegarla a tutti, l’ha banalizzata, facendo credere che per conoscere la scienza non ci si debba fare il cosiddetto “mazzo” sui libri, ma basti andare su Google o leggere un libro del Rovelli di turno.

O forse è colpa del fatto che il 30% degli italiani è funzionalmente analfabeta, contro il 12% della Finlandia o della Repubblica Ceca, e che un altro 50% è drammaticamente al di sotto delle capacità cognitive richieste per capire le dinamiche della conoscenza scientifica.

Io ci provo lo stesso, e continuo con il “Libro di Fisica”.

In “Temperatura e calore” abbiamo visto le leggi che regolano i processi termici, cioè tutti quei fenomeni che coinvolgono il concetto di calore e temperatura, dette “Leggi della termodinamica”.

Ripassiamole brevemente:

  • Principio zero, formulato nel 1931:

Come il tempo è la variabile più importante della Dinamica, così la temperatura è la variabile fondamentale della Termodinamica. Il principio zero della termodinamica introduce il concetto di temperatura, conoscendo la quale si può sapere con sicurezza se fra due sistemi ci sarà o no scambio di calore. Se fra due “sistemi” posti a contatto non c’è scambio di calore essi hanno la stessa temperatura.

  • Primo principio:

Il primo principio dice: L’energia si conserva. Il fatto che sia l’energia a conservarsi e non il calore fu compreso negli anni ’50 del 1800 e costituisce la conclusione delle scoperte di Kelvin e Clausius. L’energia spodestò dalla sua posizione dominante il concetto di “forza” che Newton aveva insegnato a trattare in termini matematici.

  • Secondo principio:

Il secondo principio riconosce che in Natura esiste una fondamentale asimmetria: un oggetto caldo si raffredda spontaneamente, ma un oggetto freddo non si riscalda spontaneamente; una palla lanciata in alto rimbalza e lentamente si ferma, ma una palla ferma non si mette a rimbalzare spontaneamente. Questo concetto ci dice che nonostante l’energia si conservi, la sua distribuzione cambia in modo irreversibile. L’energia contenuta in un litro di benzina viene trasformata dal motore a scoppio in energia termica e poi in lavoro meccanico, in energia elettrica, ecc. Quando il litro di benzina è bruciato completamente, in nessun modo è possibile recuperarlo.

  • Terzo principio:

Il terzo principio dice che non è possibile raggiungere la temperatura dello Zero Assoluto. Il volume di un gas diminuisce (o aumenta) di 1/273 del valore iniziale per ogni diminuzione (o aumento) di 1°C. Raffreddando un gas fino a -273°C si dovrebbe quindi annullare il suo volume e anche la sua pressione. Questo punto critico (impossibile da raggiungere) viene chiamato Zero Assoluto e le temperature contate a partire da tale punto vengono chiamate “temperature assolute”. L’acqua bollente si trova a 100°C nella scala Celsius e a 373° nella scala assoluta. In pratica nessun gas può raggiungere la temperatura dello Zero Assoluto e la condizione di volume nullo. Poco prima di raggiungere lo Zero assoluto qualsiasi gas condensa trasformandosi in liquido, che non può avere volume nullo. La scala delle temperature assolute è chiamata scala Kelvin.

Il riepilogo era per Andrea 😉

Torniamo all’inizio della scorsa spiegazione e ricordiamo il nostro bicchiere d’acqua visto al microscopio:

acqua ingrandita un miliardo di volte

Facciamo finta che quella osservata sia la superficie dell’acqua contenuta nel bicchiere, quindi a contatto con l’aria, quindi ci sarà qualche molecola di ossigeno, qualcuna di azoto, di anidride carbonica, argo e tutto ciò che compone l’aria. In più ci sarà il vapore acqueo.

L’aria è costituita quasi interamente di azoto, ossigeno, vapore acqueo e quantità minori di anidride carbonica, argo e altre cose. Quindi al di sopra della superficie dell’acqua c’è l’aria, un gas che contiene una certa quantità di vapore acqueo.

Le molecole dell’acqua, così come quelle dell’aria, sono in continuo movimento, cosicché ogni tanto una molecola d’acqua prende un po’ di velocità (abbiamo capito l’altra volta come può accadere) e vola via.

Dobbiamo immaginare questo: scaldando l’acqua, il movimento delle molecole aumenta e quelle superficiali tendono a staccarsi. Ma anche senza scaldare l’acqua, quelle superficiali si possono staccare lo stesso perché entrano in contatto con – ricordate? – il vapore acqueo.

Mettendo una sorta di coperchio al bicchiere, ci accorgeremmo che, potendo vedere il fenomeno ingrandito, alcune di queste molecole dopo un po’ fanno ritorno nell’acqua.

Così vediamo che una cosa apparentemente morta e insignificante (un bicchiere d’acqua con un coperchio, che magari è lì da vent’anni) in realtà contiene un interessante fenomeno dinamico che si svolge senza sosta. Ai nostri occhi, così limitati, sembra che niente cambi, ma se potessimo vedere le cose ingrandite un miliardo di volte ci renderemmo conto che dal punto di vista dell’acqua le cose sono in continuo cambiamento: delle molecole lasciano la superficie, altre vi fanno ritorno.

Come mai non ci accorgiamo di nulla? Perché tante molecole se ne vanno quante tornano; alla lunga non succede niente. Se invece togliamo il coperchio e soffiamo via l’aria umida, sostituendola con aria secca, allora il numero di molecole che volano via sarà esattamente lo stesso di prima, perché dipende dall’agitazione dell’acqua, ma il numero di quelle che tornano indietro diminuisce fortemente, perché nell’aria ci sono molte meno molecole d’acqua.

Quindi più molecole se ne vanno di quante ritornano, e l’acqua evapora. Perciò, se volete far evaporare dell’acqua, accendete un ventilatore!

Abbiamo accennato prima che se scaldiamo l’acqua, il numero di molecole che si stacca sarà superiore che a temperatura ambiente, perché avranno maggiore velocità.

Quindi, dato che se ne vanno le molecole con energia maggiore della media, quelle che restano hanno mediamente minor velocità di prima. Così, evaporando, il liquido gradualmente si raffredda.

Naturalmente, quando una molecola di vapore si avvicina alla superficie dell’acqua, a un certo punto si manifesta, improvvisamente, una forte attrazione che ne accelera il moto, e ciò si traduce in una produzione di calore. Così le molecole sottraggono calore quando se ne vanno, e lo generano quando tornano. Se l’evaporazione netta è nulla il risultato è anch’esso nullo: la temperatura dell’acqua non cambia. Ma se soffiamo sull’acqua per mantenere una continua preponderanza del numero delle molecole che evaporano, allora l’acqua si raffredda.

Ecco perché il consiglio della mamma quando siamo piccoli (soffia sulla minestra, così si raffredda!) ha basi scientifiche, ma nessuno di noi lo sa!

Naturalmente i processi appena descritti sono molto più complicati. Non solo l’acqua entra nell’aria, ma anche, di tanto in tanto, qualche molecola di ossigeno o di azoto entrerà nell’acqua «perdendocisi» dentro, avanzando tra le molecole d’acqua.

Quindi l’aria si dissolve nell’acqua, che conterrà quindi molecole di ossigeno e azoto, cioè conterrà aria. Se improvvisamente facciamo il vuoto nel recipiente, le molecole d’aria lasceranno l’acqua più rapidamente di quanto vi siano entrate, e in questo processo si formeranno delle bolle. Cosa molto pericolosa per chi fa immersioni subacquee, come forse avrete sentito dire.

Ma che succede se sciogliamo un solido nell’acqua? Ogni giorno, in tutte le case, avviene questo processo chimico: esatto, quando mettiamo il sale nell’acqua della pasta!

Il sale è un solido, un cristallo, una struttura organizzata di “atomi di sale”. In realtà, la configurazione del sale di cucina è data dall’unione del cloro con il sodio; il cloruro di sodio (NaCl) si trova abbondantemente in natura. La maggior parte è disciolta in acqua, a formare acqua marina; in parte si trova come minerale allo stato solido in giacimenti di terraferma (in questo caso prende il nome di “salgemma”).

Esso è essenziale per la vita sulla Terra. La maggior parte dei tessuti e dei fluidi degli esseri viventi contiene una qualche quantità di sale. Gli ioni sodio sono essenziali per la trasmissione dei segnali sensoriali e motori lungo il sistema nervoso.

Il simbolo del sodio (Na) deriva dal nome latino del “natrium” un sale naturale. Il nome latino “natrium” deriva dal greco νίτρον, nítron, che a sua volta derivava dal nome egizio del sale “Ntry”, che significa puro, divino, aggettivazione di “Ntr” che significa dio. Il cloro invece si chiama così a causa del suo colore (dal greco χλωρός, chloròs, “verde pallido”).

A rigor di termini un cristallo non è fatto di atomi, ma di ioni. Uno ione è un atomo che ha qualche elettrone in più, o ne ha perso qualcuno. In un cristallo di sale troviamo ioni di cloro (cioè atomi di cloro con un elettrone in più) e ioni di sodio (atomi di sodio con un elettrone in meno). Nel sale solido gli ioni stanno attaccati l’uno all’altro per via dell’attrazione elettrica, ma quando lo mettiamo nell’acqua scopriamo che a causa dell’attrazione dell’ossigeno negativo e dell’idrogeno positivo sugli ioni, alcuni di essi si liberano.

Vicino allo ione di cloro sono più frequenti gli estremi di idrogeno delle molecole d’acqua, mentre vicino allo ione di sodio è più probabile trovare l’estremo di ossigeno (infatti il sodio è positivo e l’estremo di ossigeno dell’acqua è negativo, quindi si attraggono elettricamente).

Anche qui il processo è dinamico, come nel caso dell’evaporazione, e dipende dalla quantità di sale nell’acqua: se è maggiore o minore di quella necessaria all’equilibrio.

Con la parola “equilibrio” intendiamo la situazione in cui tanti atomi se ne vanno quanti tornano indietro. Se nell’acqua non c’è sale quasi per niente, se ne vanno molti più atomi di quanti tornino, e il sale si scioglie; per contro, se ci sono troppi “atomi di sale”, quelli che tornano saranno in numero maggiore e il sale cristallizza.

Ritornando alla nostra discussione sulla soluzione e la precipitazione, se la temperatura della soluzione aumenta, aumenta la quantità di atomi che lasciano il cristallo, così come aumenta la quantità di quelli che tornano indietro. In generale è molto difficile riuscire a prevedere in quale modo finirà, se il solido si scioglierà in quantità maggiore o minore. La maggior parte delle sostanze si scioglie di più all’aumentare della temperatura, ma alcune si sciolgono di meno.

Ma una questione si apre ora che abbiamo queste nozioni: il sale, si mette prima o dopo il bollore? E aiuta la pasta a bollire prima?

Sapendo che il punto di ebollizione di un litro di acqua aumenta di un grado Celsius ogni 58 grammi di sale aggiunti, la risposta sarebbe: prima!

Ma poiché solitamente si usano 5-10 grammi di sale per litro, in pratica l’aggiunta del sale in cucina non aumenta il punto di ebollizione in modo apprezzabile: la scelta è in pratica ininfluente rispetto ai tempi necessari per portare all’ebollizione.

Io la salo prima per evitare di dimenticarmi. Anzi, evito di cucinare!

Torna al menu

Le onde: Acustica

11

Incassati i graditi complimenti di mio cugino Gianluca, proseguo con il prossimo argomento del “Libro di Fisica” for dummies by dummy.

Il prossimo argomento merita un’introduzione.

Sono nato a Taranto, a circa 100 metri dal mare (c’era una clinica in una nota piazza sul lungomare, famosa per una fontana particolare). Quindi so benissimo cosa sia un’onda.

Con il latino “ŭnda” venivano indicate le increspature sulla superficie dell’acqua. Il termine deriva alla radice greca ὕδ, hyd che compare nella parola ὕδωρ, hydor, che vuol dire, appunto, “acqua”, e che in italiano ritroviamo in tutte le parole che iniziano per “idr-“, come idraulico, idrico, ecc.

La radice, tuttavia, è ancora più antica, e risale all’indoeuropeo, e cioè ad un tempo in cui quasi tutte le lingue europee (ed alcune asiatiche) erano un’unica lingua. La radice indoeuropea è “vud-“, o “vad-“, e tutt’oggi è riconoscibile in moltissime lingue antiche e moderne, ad indicare l’acqua, o concetti strettamente collegati.

Ad esempio in inglese si dice water, in tedesco wasser, in russo voda e così via. Noi con l’onda intendiamo la massa d’acqua che alternativamente si alza e si abbassa sul livello di quiete della superficie del mare o di un altro specchio d’acqua, per effetto del vento o per altre cause.

E anche se le onde del mare (o di un lago) sono un tipo particolare di onde, la parola è stata presa in prestito dalla fisica per indicare un certo tipo di fenomeno.

Prima di parlare di onde in fisica, occorre una brevissima digressione.

Siamo a tal punto abituati alla presenza dell’aria, da dimenticarci che esiste. Un bicchiere vuoto, in realtà, non è vuoto, ma è pieno di aria. Ma l’aria che ci circonda non è l’unica cosa che interagisce con noi e che non vediamo. Ci sono anche le onde.

In fisica con il termine onda si indica una perturbazione che nasce da una sorgente e si propaga nel tempo e nello spazio, trasportando energia o quantità di moto senza comportare un associato spostamento della materia. Le onde possono propagarsi sia attraverso un materiale, sia nel vuoto. Ad esempio la radiazione elettromagnetica, ed a livello teorico la radiazione gravitazionale, possono esistere e propagarsi anche in assenza di materia, mentre altri fenomeni ondulatori esistono unicamente in un mezzo, che deformandosi produce le forze elastiche di ritorno in grado di permettere all’onda di propagarsi.

Ad esempio un sasso cade in uno stagno, delle onde si formano sulla sua superficie partendo dal punto di impatto. Si propagano in tutte le direzioni con una simmetria circolare. Quello che è successo è che il sasso ha ceduto energia cinetica all’acqua, questa energia tende a propagarsi e disperdersi in tutte le direzioni. Il meccanismo più efficiente con cui lo fa è quello di un’onda.

Si definisce onda quindi la propagazione di una perturbazione.

Alla base di un fenomeno ondoso, vi è un moto oscillatorio che si genera quando una particella si muove periodicamente intorno ad una posizione di equilibrio. Nelle onde non si ha alcun trasporto di materia ma soltanto di energia.

Una fondamentale classificazione delle onde le suddivide in:

  1. meccaniche (come le onde del mare, il suono) generate da un fenomeno meccanico e necessitano di un mezzo di propagazione.
  2. elettromagnetiche (come la luce e le onde radio) che hanno alla base una variazione del campo elettromagnetico e si propagano nel vuoto.
  3. di materia: comunemente noi siamo portati a pensare elettroni, protoni, atomi e molecole come i costituenti della materia, in realtà esse si comportano come vere e proprie onde, ecco perché parliamo di onde di materia. Questo argomento lo vedremo però più in là nella “narrazione”.

Le onde possono propagarsi lungo una sola direzione (es. onda su una corda tesa), nel piano (es. onde provocate da un sasso lasciato cadere in uno stagno) o in tutto lo spazio (es. onde sonore generate da sorgenti puntiformi). Un’onda viene sempre generata da una sorgente che produce una perturbazione nello spazio che la circonda. Alcuni semplici oggetti, oscillando possono diventare sorgenti di onde meccaniche. Per ciascuno di essi esiste una posizione di equilibrio stabile. Se uno di essi viene spostato dalla posizione di equilibrio, comincia ad oscillare fra due punti, con un proprio periodo di oscillazione. Responsabile del moto è una forza di richiamo elastica, che, per piccole oscillazioni, è proporzionale allo spostamento dalla posizione di equilibrio. Durante l’oscillazione l’oggetto perturba il mezzo circostante cedendogli energia: in tal modo genera un’onda.

Le onde o sonore sono onde meccaniche longitudinali, che si possono muovere attraverso solidi, liquidi o gas.

Un corpo vibrante immerso nell’aria produce in essa delle onde elastiche, dando luogo a quel fenomeno che viene chiamato suono. Per questo le onde elastiche vengono chiamate onde acustiche o onde sonore. Il modo più semplice di produrre un suono è quello di porre in vibrazione un corpo, quale, ad esempio, la corda di una chitarra o una membrana di un tamburo.

L’acustica è quella parte di fisica che studia i fenomeni sonori.

Come dicevo, le onde sonore per propagarsi hanno bisogno di un mezzo da mettere in vibrazione, che può essere solido, liquido o aeriforme.

Nello spazio vuoto, ad esempio, non si sentirà nessun suono.

Come i miei lettori sanno, sono appassionato di fantascienza e uno dei punti che critico ogni volta che c’è l’esplosione di una nave spaziale è che si sente un bel botto! Ma non sempre è così!

Qualche anno fa (nel 1979…) uscì nelle sale il film “Alien”: ebbene, nel trailer c’era un’esplosione e non si sentiva nulla!

Invece, in quasi tutti gli altri film e telefilm di fantascienza, il botto si sente, ma quel che è ancora peggio, lo udiamo nello stesso tempo in cui lo vediamo. Quand’anche il suono potesse propagarsi nello spazio, cosa che non è, la velocità di un’onda di pressione come il suono è in generale di vari ordini di grandezza minore della velocità della luce. Basta andare a una partita di calcio per rendersi conto che vediamo le cose prima di udirle.

Per capire cosa intendo, vediamo quanto vale la velocità del suono nei vari mezzi di propagazione grazie alle prossime tre tabelle:

Velocità del suono negli aeriformi
Gas/vapore Velocità del suono (Km/s)
Aria (-20 °C) 0,319
” (0 °C) 0,332
” (20 °C) 0,343
” (40 °C) 0,354
” (60 °C) 0,365
Azoto (0 °C) 0,337
Anidride carbonica (0 °C) 0,259
Elio (0 °C) 0,972
Metano (0 °C) 0,430
Velocità del suono nei liquidi (T=20 °C)
Liquido Velocità del suono (Km/s) (KN/m2 )
Benzene 1,32 1,1×109
Alcool etilico 1,17 1,1×109
Glicerina 1,93 4,5×109
Mercurio 1,45 2,6×109
Acqua 1,48 2,0×109
Acqua marina 1,51 1,6×109
Velocità del suono nei solidi (T=20 °C)
Materiale Velocità delle onde longitudinali (Km/s) Velocità delle onde trasversali (Km/s)
Acciaio 5,98 3,30
Alluminio 6,37 3,11
Ottone 4,37 2,10
Rame 4,76 2,33
Vetro pyrex 5,64 3,28

Un tipico esperimento di fisica nelle scuole superiori consiste nel mettere un campanello elettrico in una campana di vetro, da cui si può estrarre l’aria con una pompa. Una volta tolta l’aria, il suono del campanello scompare. Già nel Seicento si riconobbe che il suono aveva bisogno di un mezzo in cui propagarsi. Nel vuoto, come quello fatto all’interno della campana di vetro, non c’è nulla che possa farsi veicolo delle onde sonore, cosicché non udiamo il suono del campanello, pur vedendolo vibrare. Per l’esattezza, il suono è un’onda di pressione, o un disturbo, che si muove quando regioni in cui la pressione è maggiore o minore della pressione media si propagano in un mezzo. In assenza di un mezzo non c’è una pressione in cui possa propagarsi un disturbo.

Per inciso, l’esempio della campana di vetro fa anche comprendere perché alle onde elettromagnetiche non serve un mezzo per propagarsi. Infatti, mentre non si può sentire il campanello, lo sì può ancora vedere! Ora, se la luce è un qualche tipo d’onda, in quale mezzo si propaga che non venga estratto dalla campana insieme con l’aria? Questa fu una delle prime giustificazioni per postulare un mezzo chiamato etere.

In una sostanza rarefatta come l’aria c’è molto spazio tra molecole vicine; a temperatura e pressione ambiente, per esempio, la distanza tra molecole d’aria adiacenti è circa dieci volte maggiore rispetto al diametro di una molecola di ossigeno o azoto. Inoltre, ogni molecola d’aria a temperatura ambiente sfreccia a una velocità di circa 335 m/s, o 1200 km/h (cioè la velocità del suono nell’aria).

Quando corriamo attraverso l’aria non formiamo di fronte a noi una zona ad alta densità, perché la nostra velocità è molto minore rispetto a quella media di una molecola d’aria (ma Flash lo fa).

Naturalmente si può superare la velocità del suono (un’impresa compiuta per la prima volta dal colonnello Chuck Yeager nel 1947), ma questo richiede uno sforzo notevole. Quando cercate di spostare un volume d’aria con una velocità maggiore delle molecole d’aria, si forma davanti a voi una zona ad alta densità (cioè un fronte d’urto).

Una delle cose che viene spiegata sempre quando si parla di acustica è l’effetto Doppler.

L’effetto Doppler è un cambiamento apparente della frequenza o della lunghezza d’onda di un’onda percepita da un osservatore che si trova in movimento rispetto alla sorgente delle onde. Per quelle onde che si trasmettono in un mezzo (ad esempio: aria, acqua, etc.) come le onde sonore, la velocità dell’osservatore e dell’emettitore vanno considerate in relazione a quella del mezzo in cui sono trasmesse le onde. L’effetto Doppler totale può quindi derivare dal moto di entrambi, ed ognuno di essi è analizzato separatamente.

L’effetto fu analizzato per la prima volta da Christian Andreas Doppler nel 1845. Per verificare la sua ipotesi effettuò un famoso esperimento: si piazzò accanto ai binari della ferrovia e ascoltò il suono emesso da un vagone pieno di musicisti mentre si avvicinava e poi mentre si allontanava. L’esperimento confermò che: l’altezza del suono era più alta quando l’origine del suono si stava avvicinando, e più bassa quando si stava allontanando.

Hippolyte Fizeau scoprì indipendentemente lo stesso effetto nelle onde elettromagnetiche nel 1848. Oggi è molto facile constatare l’effetto Doppler: basta ascoltare la differenza nel suono emesso dalla sirena di un mezzo di soccorso quando si avvicina e quando si allontana.

Prima di avventurarci nella spiegazione, è importante far notare che la frequenza del suono emesso dalla sorgente non cambia.

Nella vita quotidiana, un classico esempio di effetto Doppler, è dato, dicevo, dalla sirena di un’ambulanza. Questa infatti inizierà ad essere percepita più alta del suo tono effettivo, si abbasserà mentre passa accanto all’osservatore, e continuerà più bassa del suo tono effettivo mentre si allontana dall’osservatore. In altre parole: se la sirena si stesse avvicinando direttamente verso l’osservatore, il tono sarebbe rimasto costante (anche se più alto dell’originale) fino a raggiungere l’osservatore, e salterebbe immediatamente ad un tono inferiore una volta che lo avesse oltrepassato (sempre che l’osservatore sia ancora in grado di sentirla).

Per comprenderne il principio su cui si basa il funzionamento dell’effetto doppler, possiamo considerare la seguente analogia: qualcuno lancia una serie di palle ogni secondo nella nostra direzione. Assumiamo che le palle viaggino con velocità costante. Se colui che le lancia è fermo, riceveremo una palla ogni secondo. Ma, se si sta invece muovendo nella nostra direzione, ne riceveremo un numero maggiore perché esse devono percorrere uno spazio minore rispetto a noi, quindi abbiamo la sensazione che arrivino più velocemente. Al contrario, se il tiratore si sta allontanando ne riceveremo man mano di meno avendo la sensazione che siano lanciate con una velocità sempre minore.

Ciò che cambia è quindi la distanza (definita propriamente lunghezza d’onda); come conseguenza, l’altezza del suono percepito cambia.

In astronomia, l’uso dell’effetto Doppler, si basa sul principio che lo spettro elettromagnetico emesso dagli oggetti celesti non è continuo, ma mostra delle linee spettrali a frequenze ben definite, associate alle energie necessarie ad eccitare gli elettroni dei vari elementi chimici. L’effetto Doppler è riconoscibile quando le linee spettrali non si trovano alle frequenze ottenute in laboratorio, utilizzando una sorgente stazionaria.

La differenza in frequenza può essere tradotta direttamente in velocità utilizzando apposite formule. Poiché i colori posti ai due estremi dello spettro visibile sono il blu (per lunghezze d’onda più corte) e il rosso (per lunghezze d’onda più lunghe), l’effetto Doppler è spesso chiamato spostamento verso il rosso se diminuisce la frequenza della luce, e spostamento verso il blu se l’aumenta.

L’effetto Doppler ha condotto allo sviluppo delle teorie sulla nascita ed evoluzione dell’Universo come il Big Bang, basandosi sul sistematico spostamento verso il rosso mostrato da quasi tutte le galassie esterne.

Le onde sonore hanno 5 caratteristiche principali:

  1. Ampiezza: valore massimo raggiunto dall’onda;
  2. Periodo: tempo impiegato per fare un’oscillazione completa;
  3. Frequenza: n° di oscillazioni complete compiute in un secondo;
  4. Lunghezza d’onda: indicata con la lettera greca lambda, è la distanza tra 2 picchi o 2 avvallamenti consecutivi;
  5. Velocità: V= lambda/tempo.

I caratteri del suono sono:

  1. Intensità: dipende dal volume del suono;
  2. Altezza: dipende dalla frequenza dell’onda;
  3. Timbro: dipende dal numero di armoniche che si sommano alla fondamentale.

Quando un’onda propagandosi incontra un ostacolo subisce il fenomeno della riflessione. È importante la distanza che c’è tra sorgente e ostacolo. Infatti si può verificare un fenomeno conosciuto come “eco”:

  1. La eco avviene quando la distanza tra sorgente sonora è molto più grande di 17 m, l’eco consiste nella ripetizione del suono (d >17m);
  2. Rinforzo d<17m;
  3. Rimbombo d=17 m.

In questo articolo abbiamo introdotto il concetto di onda, intesa come perturbazione che si propaga nel tempo e nello spazio distinguendo tra i diversi tipi di onda, meccaniche, elettromagnetiche e di materia.

Abbiamo così accennato alle sue caratteristiche, quali il fronte d’onda e il periodo, la frequenza, la lunghezza d’onda e l’ampiezza e a seconda della forma che può assumere.

Uno dei tipi di onda più studiati è il suono, trattando così i suoni semplici, intesi come onde sinusoidali. Tra le diverse caratteristiche del suono vi è il timbro, che rappresenta un carattere specifico di un’onda anche a parità di frequenza ed intensità. Sono stati introdotti i concetti di eco e di rimbombo, come esempi di riflessione del suono.

Un altro interessante aspetto legato alle onde, in particolar modo a quelle sonore, è l’effetto doppler, dove frequenza e lunghezza d’onda percepite da un osservatore possono variare quando o l’osservatore o la sorgente sono in movimento. Un classico esempio è osservabile con il suono di un’ambulanza nella fase in cui va incontro all’osservatore e nella fase in cui si allontana.

Un’ultima curiosità.

Al nostro orecchio le differenti lunghezze d’onda si presentano come suoni di differente altezza. Il suono più grave che udiamo ha una lunghezza d’onda di 22 metri e una frequenza di 15 cicli al secondo. Il suono più acuto che un adulto normale può percepire corrisponde a una lunghezza d’onda di 2,2 centimetri e a una frequenza di 15 mila cicli al secondo. (I bambini possono udire suoni leggermente più acuti).

L’assorbimento del suono da parte dell’atmosfera dipende dalla lunghezza d’onda. Più grande è la lunghezza d’onda, minor assorbimento acustico si ha da parte di un dato spessore di aria. Per questa ragione, il suono delle sirene da nebbia è di tono molto basso, in modo da essere udito il più lontano possibile. La sirena di un grande transatlantico ha la frequenza di 27 vibrazioni al secondo, cioè circa la stessa della nota più bassa del pianoforte. Essa può essere udita a una distanza di circa 15 chilometri, e rivelata da un’opportuna strumentazione a una distanza che va da 150 a 250 chilometri.

Esistono inoltre dei suoni di tono più profondo di quanto noi siamo in grado di udire. Alcuni dei suoni che accompagnano i terremoti o le eruzioni vulcaniche appartengono proprio a tale intervallo degli “infrasuoni”. Queste vibrazioni possono compiere il giro della terra, talora anche più di una volta, prima di venir completamente assorbite.

L’efficienza con cui viene riflesso un suono è inversamente proporzionale alla sua lunghezza d’onda: minore è la lunghezza dell’onda sonora, migliore è la riflessione. Onde sonore con frequenze superiori a quelle dei suoni più acuti che possiamo udire vengono riflesse ancora meglio. Alcuni animali sono in grado di udire suoni più acuti di quelli che udiamo noi, e si avvalgono di questa possibilità: i pipistrelli squittiscono emettendo onde sonore aventi frequenze “ultrasoniche” che arrivano a 130 mila cicli al secondo.

Dalla direzione in cui i suoni riflessi sono più forti e dal tempo impiegato dall’eco per tornare indietro, essi ricavano la posizione degli insetti da catturare e dei rami da evitare. È così che i pipistrelli sono in grado, anche se accecati, di volare con perfetta efficienza, al contrario di quanto accadrebbe se venissero privati dell’udito. Il biologo italiano Lazzaro Spallanzani, che per primo fece questa osservazione nel 1793, si chiese se i pipistrelli vedessero con le orecchie, e, in un certo senso, si potrebbe rispondere di sì.

Però occhio: l’effetto Doppler è usato anche da alcuni apparecchi in uso alla Polizia stradale per rilevare la velocità delle auto: conoscerne il motivo non è una valida ragione per evitare la multa!

Torna al menu

Luce e Ottica

12

Io sono miope e astigmatico, fin di tempi del ginnasio, e ho sempre imputato la colpa al famigerato vocabolario di Greco, il mitico “Rocci”. Si tratta di un dizionario di greco antico in lingua italiana, edito per la prima volta nel 1939.

Composto di circa 150.000 lemmi, è opera del grecista e gesuita Lorenzo Rocci, che per realizzarlo impiegò circa 25 anni di lavoro, con il solo ausilio di schede dattiloscritte e appunti.

La particolarità del “Rocci” è che i caratteri sono realizzati in copia fotostatica (in pratica una fotocopia) e quindi piccoli e difficili da leggere e molti studenti del Liceo Classico lo hanno, negli anni, maledetto per questo.

In più, vista l’età, sto iniziando ad avere difficoltà a leggere da vicino, cosa che mi costringerà quasi sicuramente ad andare dal mio amico Marcello per comprare un paio di occhiali da lettura.

Ma come funziona la vista?

Perché si realizzi il meccanismo della visione è fondamentale che i raggi luminosi, provenienti dal mondo esterno, arrivino sulla cornea, passino attraverso il cristallino ed il vitreo, e convergano sulla retina.

La luce è una forma di energia radiante costituita da un insieme di piccole particelle energetiche chiamate quanti o fotoni. Trattandosi di una radiazione elettromagnetica, è costituita da onde con diversa lunghezza, frequenza ed ampiezza; quando la lunghezza d’onda risulti compresa tra 400 e 700 nm (nanometro, corrispondente a 10−9 metri, cioè un miliardesimo di metro, pari ad un milionesimo di millimetro), la luce può essere rilevata dal nostro sistema visivo rientrando nello spettro delle radiazioni visibili.

Come fa una particella ad essere anche un’onda?

La risposta viene dalla meccanica quantistica, la branca della fisica che studia il comportamento di oggetti microscopici come fotoni ed elettroni, ormai consolidata da più di un secolo, che per certi versi è assolutamente contro-intuitiva. Per esempio, predice che una particella come il fotone possa trovarsi in diverse (o addirittura infinite) posizioni nello stesso istante, esattamente come se fosse un’onda. Com’è possibile? La risposta sta nella cosiddetta dualità onda-particella, secondo la quale ogni oggetto quantistico è contemporaneamente un’onda e una particella.

Cerchiamo di vedere come questo concetto si è evoluto con il passare dei secoli.

Nell’antichità e fino al Medioevo, gli studiosi non avevano la minima idea di quale fosse la natura della luce; gli unici fatti che erano riusciti a stabilire, tramite l’osservazione diretta, furono che la luce viaggiava in linea retta, che veniva riflessa da uno specchio (con angolo di uscita uguale all’angolo di entrata) e che quando la luce passava dall’aria ad un altro elemento (acqua, vetro) avveniva una deviazione.

Chiamarono il primo fenomeno riflessione e il secondo rifrazione.

Il primo ad effettuare degli esperimenti di un certo livello fu Isaac Newton nel 1666: egli fece in modo che un raggio di luce, che entrava in una stanza buia da una fessura praticata negli scuri, incidesse obliquamente su una faccia di un prisma triangolare di vetro: il raggio veniva rifratto una prima volta quando penetrava nel vetro, e una seconda volta, nella stessa direzione, quando ne usciva da un’altra faccia del prisma (usò il prisma proprio per quello).

Newton fece in modo che il raggio che emergeva dal prisma colpisse uno schermo bianco, per poter osservare gli effetti della rifrazione ripetuta, e trovò che, anziché formare una macchia di luce bianca, il raggio si allargava formando una striscia di vari colori nell’ordine: rosso, arancione, giallo, verde, azzurro e viola, e da ciò dedusse che la luce bianca ordinaria è una miscela di tipi differenti di luce, i quali, separatamente, agiscono sui nostri occhi in modo da suscitare la sensazione dei diversi colori. Questa striscia di colori, anche se ci appare abbastanza reale, è immateriale, proprio come un fantasma; non per nulla Newton la denominò “spettro”.

color-prism

Esperimento di Newton

R-1873013-1471100381-3022_jpeg

Copertina dell’album dei Pink Floyd “The Dark Side of the Moon”

Restavano però ancora varie domande. Per esempio, perché le particelle di luce verde venivano rifratte più di quelle di luce gialla? Come mai due fasci di luce possono incrociarsi senza esercitare alcuna azione l’uno sull’altro, cioè, come se le particelle non entrassero in collisione?

Nel 1678, il fisico olandese Christiaan Huygens avanzò una teoria alternativa, secondo la quale la luce consisteva di piccolissime onde.

Con la teoria ondulatoria si andava a spiegare la differenza di rifrazione nei vari mezzi attraversati: minore lunghezza d’onda, maggiore rifrazione.

Per questa ragione la luce viola avrebbe una lunghezza d’onda minore di quella della luce azzurra, la quale, a sua volta, avrebbe lunghezza d’onda minore di quella della luce verde, e così via. È la differenza di lunghezza d’onda, sosteneva Huygens, che fa sì che l’occhio distingua i vari colori.

Ma neppure la teoria ondulatoria di Huygens era del tutto soddisfacente: per esempio, non spiegava perché i raggi luminosi si propaghino in linea retta e producano ombre dai contorni netti, né come mai le onde luminose non aggirino gli ostacoli, come fanno invece le onde sonore e quelle che si formano nell’acqua. Per di più, se la luce è fatta di onde, come fa a propagarsi nel vuoto, cosa che sembrava facesse senz’ombra di dubbio, dal momento che arrivava dal sole e dalle stelle, attraversando lo spazio? Quale mezzo la trasmetteva?

Per un secolo circa le due teorie restarono in competizione: quella di Newton, la “teoria corpuscolare”, era di gran lunga più diffusa sia perché appariva in complesso la più logica, sia in virtù della fama del grande Newton.

Nel 1801, però, Thomas Young, fisico inglese, effettuò un esperimento: fece passare un sottile raggio di luce attraverso due fori situati a pochissima distanza, dietro ai quali aveva collocato uno schermo. Se la luce fosse stata costituita di particelle, era presumibile che i due raggi che uscivano dai fori avrebbero semplicemente prodotto sullo schermo una regione più luminosa dove si sovrapponevano e altre meno luminose dove non si sovrapponevano. Ma non fu questo ciò che Young osservò: lo schermo presentava una serie di frange luminose, ciascuna separata da quella contigua da una frangia scura.

Ciò si poteva spiegare solo con la teoria ondulatoria, e si decretò (per il momento) la vittoria delle onde sulle particelle.

Come sappiamo, la luce viaggia a velocità straordinaria, mentre il suono non è altrettanto veloce: se guardiamo da una certa distanza un calciatore colpire il pallone, udiamo il colpo solo qualche istante dopo aver visto calciare; evidentemente, il suono ha impiegato qualche istante per raggiungere l’orecchio. In effetti, è facile misurarne la velocità: 332 metri al secondo, nell’aria al livello del mare.

Galileo fu il primo a cercare di misurare la velocità della luce; stando su un’altura mentre un suo assistente stava su un’altra, Galileo scopriva una lanterna e l’assistente, non appena ne scorgeva il lampo, segnalava la cosa scoprendo a sua volta un’altra lanterna.

L’idea era buona, ma la luce è di gran lunga troppo veloce perché con un metodo così rudimentale si possa registrare una differenza.

Con gli anni gli scienziati impararono a trovare metodi sempre migliori per misurare la velocità della luce, come Roemer, astronomo danese che usò le eclissi dei satelliti di Giove nel 1676, o come Bradley, astronomo inglese, che nel 1728 usando la posizione apparente delle stelle rispetto alla Terra, misurarono velocità sempre più precise.

Perfezionando l’idea originale di Galileo, nel 1849, il fisico francese Fizeau ideò un dispositivo nel quale un lampo di luce veniva inviato su uno specchio situato a 8 chilometri di distanza; lo specchio lo rifletteva fino all’osservatore: il tempo trascorso per percorrere i 16 chilometri non superava di molto 1 su 20 mila di secondo, ma Fizeau riuscì a misurarlo ponendo sul percorso del raggio luminoso una ruota dentata in rapida rotazione; quando la ruota girava a una data velocità, il lampo, passato tra un dente e l’altro all’andata, colpiva il dente successivo al ritorno; quindi Fizeau, situato dietro alla ruota, non lo vedeva. Se poi si aumentava la velocità di rotazione della ruota, il raggio sulla via del ritorno non veniva più bloccato, ma passava nel successivo intervallo tra un dente e l’altro. Così, regolando e misurando la velocità di rotazione della ruota, Fizeau riuscì a calcolare il tempo trascorso, e quindi la velocità con cui viaggiava il lampo luminoso; egli trovò che questa era di 315 mila chilometri al secondo, un valore troppo alto del 5,2 per cento.

Un anno dopo, Jean Foucault (che poco tempo più tardi avrebbe effettuato il famoso esperimento del pendolo) perfezionò il metodo usando uno specchio rotante al posto della ruota dentata. Ora il tempo trascorso veniva misurato da un leggero cambiamento della direzione in cui veniva riflesso il raggio di luce da parte dello specchio in rapida rotazione. La migliore misurazione ottenuta da Foucault nel 1862 fornì, come velocità della luce nell’aria, 298 mila chilometri al secondo – un valore troppo basso solo dello 0,7 per cento. In più, Foucault usò il suo metodo per determinare la velocità della luce in vari liquidi e trovò che essa era considerevolmente inferiore alla velocità della luce nell’aria. Anche questo risultato confortava la teoria ondulatoria di Huygens.

L’esperimento finale fu di Michelson, che, migliorando i due metodi descritti precedentemente, fece passare la luce attraverso il vuoto e stabilì che la velocità della luce nel vuoto era pari a 299.774 chilometri al secondo – un valore troppo basso solo dello 0,006 per cento. Egli dimostrò inoltre che le onde luminose di qualsiasi lunghezza viaggiano nel vuoto con la stessa velocità.

In seguito la velocità della luce è stata misurata dai fisici con precisione assoluta: un raggio luminoso viaggia nel vuoto a 299.792 chilometri al secondo. In un secondo potrebbe compiere sette giri e mezzo della Terra seguendo la linea dell’equatore.

Ma fino ad ora abbiamo visto che parliamo solo di onde. E le particelle?

All’inizio del 20° secolo si è scoperto che in un’onda elettromagnetica l’energia è distribuita in pacchetti discreti che possono essere pensati come i costituenti della radiazione elettromagnetica. La particella responsabile di tutto questo si chiama fotone, dal greco φῶς, φωτός, phòs, photòs, che significa luce, ed è solitamente indicato con la lettera greca γ (gamma).

Il fotone fu introdotto come costituente elementare di queste radiazioni da Max Planck e Albert Einstein fra il 1900 e il 1905, come entità non ulteriormente divisibile. Classicamente, ogni onda, secondo il principio di sovrapposizione, può essere sempre scomposta come la somma o il contributo di altre due o più onde. Al contrario la meccanica quantistica postula per le onde elettromagnetiche, in accordo con gli esperimenti, l’esistenza di un “quanto” di energia fondamentale indivisibile, che ha quindi proprietà sia ondulatorie che particellari (fenomeno noto come dualismo onda-particella).

Dal punto di vista particellare, il fotone ha massa nulla e non trasporta alcuna carica elettrica. Nel vuoto, i fotoni si propagano sempre alla velocità della luce (non esistendo alcun osservatore rispetto al quale sono fermi) e il loro raggio d’azione è illimitato. Questo significa che un fotone può continuare a viaggiare nello spazio-tempo indefinitamente senza alcun limite, finché non viene assorbito da un’altra particella. Per questo motivo, è possibile tuttora rilevare i fotoni emessi nelle prime fasi di vita dell’universo, che formano la radiazione cosmica di fondo.

In realtà non c’è cosa più veloce nell’universo della luce. Anzi, non può esserci nulla di più veloce, anche in linea teorica, come ha postulato Albert Einstein nella sua celebre teoria della relatività speciale. Dalle sue formule si deduce che in natura esiste un limite massimo di velocità. Ciò ha a che fare con la massa delle cose: ogni oggetto, secondo Einstein, aumenta la sua massa quanto più velocemente si muove (ovvero, oltre un certo limite, l’energia che spinge un oggetto si trasforma quasi tutta in massa e soltanto per una frazione sempre più piccola in velocità).

Questo diventa evidente solo a velocità elevate: se si potesse sparare nello spazio una palla da tennis della massa di 55 grammi a una velocità di 500 milioni di chilometri all’ora, la massa dell’oggetto aumenterebbe a 62 grammi. Se la velocità raggiungesse 1.079 milioni di km/h – corrispondente a circa il 99,98 per cento della velocità della luce – la massa della palla sarebbe di ben 2,5 chilogrammi.

Ogni ulteriore approssimazione alla velocità della luce farebbe aumentare la massa della palla, e al 99,9999 per cento sarebbe di 1,2 tonnellate. A quel punto, però, per imprimere un incremento di velocità sarebbe necessaria una forza immane. Per accelerare una grande massa, infatti, ci vuole più spinta di quanta ne occorra per una massa piccola.

In pratica: quanto più veloce è la palla, tanto maggiore diventa la massa, e di conseguenza più dispendiosa in termini di energia una sua ulteriore accelerazione. Fino alla situazione limite, in cui qualsiasi aumento di velocità richiederebbe un’energia maggiore di quella disponibile nell’universo: il non plus ultra della velocità che un corpo può raggiungere.

Non solo.

Secondo la Teoria della Relatività di Einstein un corpo che si muove a velocità prossime a quelle della luce subisce una dilatazione del tempo, che scorre quindi più lentamente rispetto ad un osservatore posto in un altro sistema di riferimento, per esempio sulla Terra.

Questo vuol dire che un ipotetico astronauta, in viaggio ad una velocità uniforme di 0.99 c (dove “c” indica la velocità della luce), misura un’ora sul suo orologio da polso, mentre un osservatore sulla Terra misura un tempo più lungo. Nessuno dei due si rende conto della differenza finché sono in viaggio, perché entrambi vedranno scorrere le lancette dell’orologio alla solita velocità, ma se al termine del viaggio i due confronteranno i propri orologi noteranno che l’ora dell’astronauta equivale a circa 7 ore dell’uomo rimasto a terra.

Questo effetto è stato realmente misurato in un esperimento nel 1972 da Hafele e Keating, che hanno montano orologi atomici su aerei che hanno fatto il giro del mondo e li hanno confrontati con il tempo misurato da orologi atomici rimasti a terra. La differenza di tempo misurate dopo i voli degli aerei sono risultate in pieno accordo con quanto previsto dalla Relatività ristretta e dalla Relatività generale.

Ovviamente gli scarti temporali in questo caso sono minuscoli, dell’ordine dei milionesimi di secondo, ma sono fondamentali da considerare per i satelliti artificiali e le tecnologie che li usano. La prossima volta che utilizzi il GPS, per esempio, pensa che senza le correzioni relativistiche non potrebbe esistere il navigatore satellitare.

E senza il Rocci, milioni di studenti del liceo classico non porterebbero gli occhiali…

Torna al menu

Luce e ottica – parte seconda

13

“Lisa dagli occhi blu” è stata una delle canzoni simbolo degli anni Sessanta. Io lo so, anche se sono nato solo un anno prima dell’uscita di quella canzone, perché i miei genitori fanno proprio parte di quella generazione, e me ne parlavano spesso.

Come accennavo in “La luce – Ottica”, la luce è una radiazione elettromagnetica percepibile dall’occhio umano e trasformata dal cervello in sensazioni visive. Quindi Mario Tessuto, quando parlava di Lisa (scritta da Giancarlo Bigazzi, l’indimenticabile autore di altre canzoni a colori, come “Montagne verdi” e “Rose Rosse”, nonché membro fondatore degli Squallor), vedeva proprio gli occhi blu.

Come il cielo. Ma perché il cielo è blu? E perché il Sole, al tramonto, appare rosso?

Facciamo un passo indietro.

La luce proveniente dal Sole, che permea tutto ciò che vediamo (lo vediamo proprio perché c’è la luce), è composta dalla sovrapposizione di onde elettromagnetiche di diverse lunghezza d’onda: dalla radiazione che percepiamo come violetta fino alla radiazione che ci appare rossa, passando per il blu, verde, giallo, arancio. Il cosiddetto spettro dei colori.

Prima di giungere a noi, un raggio solare attraversa l’atmosfera, che è composta per il 78% da azoto e per il 21 % da ossigeno. Sono anche presenti argon, acqua (in forma di vapore, goccioline e cristalli di ghiaccio) e particelle solide (polveri, ceneri dai vulcani e sale dal mare).

Gli effetti dell’interazione tra la luce e un oggetto dipendono fondamentalmente da due cose: dalla lunghezza d’onda della radiazione e dalle dimensioni degli oggetti su cui questa incide.

Le particelle di polvere e le goccioline d’acqua sono molto più grandi della lunghezza d’onda della luce visibile: in questo caso la luce viene riflessa in tutte le direzioni allo stesso modo, indipendentemente dalla propria lunghezza d’onda. Le molecole di gas, invece, hanno dimensioni inferiori e la luce si comporta diversamente a seconda della sua lunghezza d’onda.

La luce rossa ha una lunghezza d’onda maggiore e tende a “scavalcare” le particelle più piccole senza “vederle”; questa luce, dunque, interagisce molto debolmente con l’atmosfera e prosegue la sua propagazione rettilinea lungo la direzione iniziale. Al contrario, la luce blu ha una lunghezza d’onda inferiore e quindi viene riflessa in tutte le direzioni.

È importante considerare che la trasparenza di un corpo dipende, oltre che dalla sua natura, anche dal suo spessore. Per esempio, un foglio di carta velina è translucido, ma piegandolo più volte o sovrapponendo più fogli di carta velina, la luce non passerà più attraverso di esso.

Ma torniamo al nostro raggio di Sole che passa attraverso l’atmosfera. Abbiamo detto che i raggi con lunghezza d’onda maggiore passano e quelli di lunghezza d’onda minore vengono deviati.

Questa diffusione differenziale è chiamata, in inglese, “Rayleigh scattering” (da John William Strutt Rayleigh, premio Nobel 1904 per la Fisica).

Più precisamente, la quantità di luce diffusa è inversamente proporzionale alla quarta potenza della lunghezza d’onda (1/λ4).

In realtà, secondo questo principio, dovremmo vedere il cielo viola. Per capire perché percepiamo il cielo come blu, dobbiamo prendere in considerazione altri due fenomeni:

  • lo spettro della radiazione solare ha il suo picco nelle lunghezze d’onda blu e scende per le lunghezze d’onda della viola.
  • Inoltre, i nostri occhi sono composti da tre tipi di coni, che rilevano i colori rosso, verde e blu. Quindi, i coni blu, in funzione della lunghezza d’onda, hanno una sensibilità molto più alta per il colore blu che per il colore viola.

slide1-crop

Ricapitolando, nell’attraversare l’atmosfera, la maggior parte della radiazione di maggior lunghezza d’onda prosegue la sua traiettoria rettilinea. La luce rossa, arancione e gialla viene influenzata solo in minima parte dalla presenza dell’aria. Al contrario, la luce blu è diffusa in tutte le direzioni. In qualunque direzione si osservi, parte di questa luce giunge ai nostri occhi. Il cielo, pertanto, appare blu.

L’effetto è amplificato al tramonto, quando il Sole è vicino all’orizzonte. I raggi solari diretti attraversano uno strato maggiore di atmosfera e vengono maggiormente impoveriti della componente blu. Il Sole, dunque, diventa sempre più rosso man mano che il tramonto procede.

Le nuvole e la nebbia ci appaiono bianche perché consistono di particelle più grandi delle lunghezze d’onda della radiazione visibile, e diffondono tutti i colori allo stesso modo.

Se abitassimo sulla Luna, a causa dell’assenza di atmosfera il cielo apparirebbe nero e il Sole sarebbe bianco (è così che gli astronauti hanno visto la nostra stella quando sono stati nello spazio).

Un’altra cosa. Comunemente si pensa che l’oceano sia blu perché riflette il colore del cielo, ma è una spiegazione del tutto errata.

Il colore dell’oceano dipende invece dal modo in cui questo assorbe la luce, esattamente come tutte le altre cose. Quando la luce del Sole colpisce l’oceano, l’acqua assorbe a differenti profondità i colori delle radiazioni infrarosse, ma anche di quelle ultraviolette: ciò che rimane per ultimo, e che vediamo, sono le radiazioni corrispondenti al blu.

L’oceano può assumere anche diverse colorazioni, come rosso o verde, se la luce “rimbalza” su oggetti come sedimenti o alghe. Ad ogni modo, l’intensità del blu varia in base alla capacità che l’acqua ha di assorbire la luce: in un bicchiere è trasparente perché non ci sono abbastanza molecole d’acqua da assorbire una sufficiente quantità di luce. L’oceano invece diventa sempre più blu man mano che si scende in profondità: le molecole d’acqua assorbono come prima cosa le radiazioni infrarosse, rosse e ultraviolette, poi quelle gialle, verdi e viola. L’ultima ad essere assorbita è quella blu.

Quindi, Lisa aveva gli occhi blu o era Mario Tessuto che li vedeva blu?

Torna al menu

Elettrostatica

14

Il periodo che va da maggio ad ottobre nel mio lavoro risulta abbastanza “impegnativo” e quindi su questo blog mi dedico ad argomenti più leggeri, che in genere scrivo la mattina e la sera quando sono sul bus che compie il tratto casa-lavoro (un’oretta circa).

Ora, oltre ad avere un po’ di tempo libero in più nel weekend, sono anche influenzato, quindi ho pensato di riprendere da dove avevo lasciato il “Libro di Fisica”, ripartendo da dove avevo sospeso, e cioè dall’argomento successivo a “La luce – Ottica”, trattato nel marzo scorso: l’elettrostatica, che è quella parte dell’elettromagnetismo che studia le cariche elettriche stazionarie nel tempo, generatrici del campo elettrico.

Partiamo, come sempre, dalle definizioni. Perché si dice elettricità?

Gli antichi ci accorsero che una resina fossile, prodotta da vari tipi di piante, come pini, larici, abeti, sequoie, dopo essere stata strofinata, acquisiva la proprietà di attrarre piccoli corpi molto leggeri, come piume, pagliuzze, fili. Quella resina si chiama ambra, in greco antico ἤλεκτρον, elektron.

Cosa accade nella realtà? Perché l’ambra, strofinata (ma non solo l’ambra, tant’è vero che uno dei primi esperimenti che si fanno a scuola riguardano proprio l’elettrostatica e si usano altre cose) attrae oggetti?

Come sappiamo, ogni atomo è formato da un nucleo, composto da protoni e neutroni, dotato di carica positiva e dagli elettroni carichi negativamente, che gli “ruotano”, per così dire, attorno. Normalmente in un atomo la carica positiva del nucleo e quella negativa degli elettroni risultano esattamente uguali e contrarie e l’atomo tende ad essere elettricamente neutro.

Ma un atomo, come sappiamo, può assorbire o rilasciare elettroni: poiché l’elettrone è portatore di carica negativa, diciamo che se un atomo assorbe un elettrone, diventa elettricamente negativo; se lo espelle, diventa elettricamente positivo.

Quando si strofina una bacchetta di ambra con un panno di lana, alcuni elettroni, che sono le particelle libere di muoversi, passano dal panno alla bacchetta. La bacchetta di ambra, che acquista elettroni, si carica negativamente e il panno, che perde elettroni, si carica positivamente. Dunque quando si strofinano due corpi, uno si elettrizza positivamente e uno negativamente.

Se invece di una bacchetta di ambra si usa una bacchetta di vetro, il passaggio avviene al contrario e gli elettroni lasciano la bacchetta di vetro per andare sul panno. Il fenomeno elettrico che consiste nel trasferimento di cariche elettriche, e quindi nella generazione di una tensione, tra materiali diversi (di cui almeno uno isolante) quando vengono strofinati tra di loro, si chiama effetto triboelettrico, dal greco τρίβω, tribo, che significa attrito.

Esistono quindi due tipi di stati elettrici (o cariche): + positivo, come quello che assume il vetro elettrizzato; – negativo, come quello che assume l’ambra. Cariche dello stesso segno si respingono, mentre cariche di segno opposto si attraggono.

Guardate la tabella che segue:

scala triboelettrica

Un materiale in cima alla tabella tende a cedere elettroni (e caricarsi positivamente). Quelli vicini al fondo tendono ad accettare elettroni e caricarsi negativamente. Maggiore è la distanza nella tabella e maggiore è l’intensità della carica generata. Quindi ecco ciò che accade quando ci pettiniamo e i capelli si elettrizzano!

L’elettrizzazione di un corpo si può ottenere però con tre metodi differenti:

  • per strofinio, come detto;
  • per contatto (elettrizzazione permanente).
  • per induzione (elettrizzazione temporanea);

L’unità di misura della carica elettrica è il Coulomb (C), dal nome del fisico francese Charles Augustin de Coulomb (1736-1806), che scoprì la legge fondamentale dell’elettrostatica, nota appunto come Legge di Coulomb.

Rispetto alle cariche elettriche i materiali non si comportano tutti allo stesso modo e si dividono in conduttori e isolanti. Materiali come i metalli, l’acqua (non deionizzata) e lo stesso corpo umano, in cui le cariche prodotte si muovono liberamente, si dicono conduttori, cioè che si lascino attraversare dalle scariche elettriche. La plastica, la gomma, il vetro, il legno, la porcellana si dicono, invece, isolanti, perché le cariche elettriche non li riescono ad attraversare. Si può dire che l’isolante è impermeabile alle scariche elettriche e il conduttore è permeabile a esse.

Gli esperimenti effettuati agli albori delle scoperte sull’elettrostatica mostrarono che era possibile accumulare gradualmente un’ingente carica elettrica in un conduttore, se lo si isolava, in modo che non perdesse elettricità, con del vetro o con uno strato di aria. La più famosa apparecchiatura di questo genere fu la “bottiglia di Leida”, ideata nel 1745 dallo studioso tedesco Ewald Georg von Kleist, ma utilizzata in pratica per la prima volta all’Università di Leida, in Olanda, dove fu costruita indipendentemente qualche mese dopo dallo studioso olandese Pieter van Musschenbroek. La bottiglia di Leida è ciò che oggi viene chiamato un “condensatore”, cioè un sistema formato da due superfici conduttrici, separate da un piccolo spessore di un isolante, entro cui si può immagazzinare una certa quantità di carica elettrica.

Nel caso della bottiglia di Leida la carica si accumula su un foglio di stagnola che riveste le pareti di una bottiglia di vetro; una catenella di ottone che passa attraverso il tappo entra in contatto con la stagnola; se si tocca la bottiglia carica, si avverte una forte scossa elettrica. La bottiglia di Leida può produrre anche una scintilla. Naturalmente, al crescere della carica accumulata su un corpo, cresce anche la sua tendenza a sfuggirne.

La forza che fa passare gli elettroni dalla regione dove più sono in eccesso (il “polo negativo”) a quella dove maggiormente difettano (il “polo positivo”) è detta “forza elettromotrice” (fem) o “potenziale elettrico”. Se il potenziale diventa abbastanza elevato, gli elettroni finiranno per oltrepassare l’intervallo isolante o l’aria tra i due poli, producendo una scintilla vivida e un rumore crepitante. La luce della scintilla è dovuta alla radiazione creata dalle collisioni di innumerevoli elettroni con le molecole dell’aria, e il rumore è dovuto all’espansione  dell’aria bruscamente riscaldata,  seguita dall’irruzione di aria più fredda nel parziale vuoto prodottosi momentaneamente.

Era naturale a quel punto chiedersi se fulmine e tuono fossero l’analogo, su larga scala, del fenomeno che avviene nella bottiglia di Leida. Uno studioso inglese, William Wall, aveva suggerito appunto questo, già nel 1708.

Ciò bastò a indurre Benjamin Franklin a effettuare il suo famoso esperimento del 1752. Egli fece volare, durante un temporale, un aquilone munito di una punta metallica alla quale aveva attaccato un filo di seta in grado di condurre l’elettricità dai nembi temporaleschi fino a terra; quando Franklin avvicinò la mano a una chiave metallica legata al filo di seta, scoccò una scintilla.

Franklin lasciò che la chiave si caricasse nuovamente e la usò poi per caricare una bottiglia di Leida, con risultati analoghi a quelli ottenuti caricandola con qualsiasi altro sistema. Franklin aveva così dimostrato che le nubi temporalesche sono cariche di elettricità, e che tuono e fulmine sono prodotti effettivamente da una sorta di bottiglia di Leida atmosferica, nella quale le nubi costituiscono un polo e la terra l’altro.

L’aspetto più fortunato di questo esperimento, dal punto di vista personale di Franklin, fu il fatto di esservi sopravvissuto; altri, infatti, che provarono a ripeterlo, vi persero la vita, perché la carica indotta sul puntale metallico dell’aquilone si accumulava fino a produrre una scarica tanto intensa da risultare letale all’uomo che teneva in mano il filo di seta.

Franklin applicò subito nella pratica questo progresso della teoria, ideando il “parafulmine”, una semplice asta di ferro da collocarsi nel punto più alto di un edificio e da collegarsi a terra mediante fili metallici. Il puntale aguzzo sottraeva cariche elettriche dalle nubi, come Franklin dimostrò sperimentalmente; e se cadeva un fulmine, la scarica veniva condotta a terra senza che facesse danni.

I danni causati dai fulmini diminuirono drasticamente allorché i parafulmini si diffusero in Europa e nelle colonie americane, risultato non da poco. Tuttavia ogni anno nel mondo almeno 1000 persone vengono uccise dai fulmini e diverse altre migliaia riportano lesioni gravi. Ciò avviene prevalentemente nei paesi in via di sviluppo, Sud Africa, India, Nepal e Bangladesh, che detengono il maggior numero di decessi con una media di 150-200 vittime all’anno ma non si scherza anche nei paesi industrializzati: negli Stati Uniti ad esempio ogni anno circa 50 persone perdono la vita perché colpite da fulmini; in Italia circa 10/15 ogni anno.

Grazie all’elettrizzante (scusate il gioco di parole) opera di Franklin, la ricerca sull’elettricità fece poi passi da gigante. Nel 1785 il fisico francese Charles Augustin de  Coulomb effettuò misurazioni quantitative sull’attrazione e la repulsione elettriche, mostrando che esse erano inversamente proporzionali al quadrato della distanza fra le cariche interessate.

Sotto questo aspetto vi è un’analogia tra l’attrazione elettrica e  l’attrazione gravitazionale, che approfondiremo nelle prossime puntate.

Torna al menu

La corrente elettrica

15

Quando entriamo in una stanza buia, automaticamente, cerchiamo un interruttore. È talmente diffusa, oggigiorno, la corrente elettrica nelle case che non ci si riflette. E la stessa cosa si può dire per le strade pubbliche.

Ma non è stato sempre così.

Di tutti i miracoli fatti dall’elettricità, certo quello più popolare è stato la trasformazione della notte in giorno. Gli uomini si erano difesi dall’oscurità in cui piombavano ogni giorno dopo il tramonto con i falò degli accampamenti, con le torce, con le lampade a olio, con le candele; per circa mezzo milione di anni l’uomo ha potuto contare solo su luci artificiali fioche e tremolanti.

Con l’avvento dell’elettricità, le città e le case potevano finalmente essere liberate dal giogo delle fiamme libere, che non pochi incendi e vittime avevano provocato. E anche la criminalità, che approfittava delle strade buie, ebbe un grosso contraccolpo.

I nomi dei pionieri dello studio dell’elettricità sono stati immortalati nelle denominazioni delle unità di misura delle varie grandezze elettriche. Abbiamo già parlato del “coulomb”, l’unità della quantità di carica elettrica. Un’altra unità è il “faraday”: 96.500 coulomb sono pari a 1 faraday. Il nome di Faraday ritorna anche nel “farad”, l’unità di capacità elettrica. Poi c’è l’unità dell’intensità di corrente elettrica, che viene chiamata “ampere”, in onore del fisico francese Ampère. Un ampere è pari a 1 coulomb al secondo. L’unità della forza che fa circolare la corrente, detta forza elettromotrice, è il “volt”, in onore di Volta.

E sono stati “immortalati” anche dagli studenti di fisica e ingegneria, ogni qualvolta hanno (abbiamo) dovuto studiare le relative formule.

Ma quando si iniziò a sfruttare l’elettricità per l’illuminazione pubblica?

L’illuminazione elettrica iniziò (più o meno) nel 1814 con l’invenzione delle lampade ad arco, e successivamente il brevetto fu perfezionato e fu inventata la lampadina ad incandescenza.

L’illuminazione elettrica fu possibile grazie all’invenzione di Humphry Davy (lampade ad arco) e di Thomas Edison nel 1879 (lampade ad incandescenza). Le lampade ad arco non ebbero molto successo, mentre un impianto ad illuminazione ad incandescenza fu realizzato a New York ed altri a Torino e a Milano.

Per il Carnevale del 1882 fu illuminato il ridotto della Scala e, nel novembre dello stesso anno, i portici e i negozi del palazzo settentrionale di piazza del Duomo in occasione della loro inaugurazione. Fu un grande successo, ed in quei giorni il “Corriere della Sera” scrisse: “Dell’illuminazione non esageriamo punto dicendo che ha veramente meravigliato. Coloro che si propongono di applicare l’illuminazione elettrica su grande scala nella nostra città hanno vinto iersera una grande battaglia.”

Dopo l’invenzione della lampadina la società subì molti cambiamenti. Per esempio, si inventò un meccanismo che permetteva di illuminare le scale (Murat) che consisteva di avere una lampada ai piedi delle scale, alla quale era collegata una corda con un peso. Il ritardatario doveva solo tirare il peso e la lampada veniva alzata precedendolo sulle scale. Quando si arrivava in cima, lasciando il peso la lampada tornava in fondo.

Altro cambiamento fu l’invenzione delle macchine fotografiche e da ripresa, con tutte le applicazioni pratiche del caso. E il telefono.

I fenomeni che abbiamo visto in “L’elettricità statica“ sono detti fenomeni elettrostatici, cioè fenomeni in cui le cariche elettriche sono stazionarie nel tempo. Moltissimi fenomeni sono invece legati alle cariche elettriche in moto, primo fra tutti quello della corrente elettrica. Ma cos’è, e soprattutto come funziona la corrente elettrica?

Abbiamo già visto che è possibile caricare positivamente o negativamente un conduttore. Supponiamo di prendere due conduttori, uno caricato positivamente e uno negativamente e di collegarli con un filo elettrico. Si assisterà immediatamente al passaggio di elettroni dal conduttore caricato negativamente verso quello caricato positivamente. Questo flusso prende il nome di corrente elettrica.

Siccome uno dei primi a fare esperimenti con la corrente elettrica è stato Benjamin Franklin (guarda un po’!), che pensava che a muoversi fossero le cariche positive è stato deciso di considerare il moto delle cariche positive come verso della corrente elettrica.

Si dirà che il conduttore caricato positivamente ha in potenziale elettrico maggiore di quello caricato negativamente e per spiegarlo possiamo ricorrere all’esempio di due vasi comunicanti collegati da un tubo.

Se in uno dei due vasi il livello del liquido è più alto, si assisterà al passaggio dell’acqua dal serbatoio più pieno a quello più vuoto: allo stesso modo la corrente fluisce dal conduttore che ha il potenziale più alto verso quello che ha il potenziale più basso.

Il dislivello elettrico prende il nome di differenza di potenziale elettrico o tensione e si misura con un voltmetro, in genere integrato in un “tester” elettrico; maggiore sarà la differenza di tensione fra due conduttori carichi e più sarà intenso il flusso della corrente elettrica.

Su questo principio furono costruiti i primi generatori elettrici, che non sono altro che dei dispositivi che mantengono costante la differenza di potenziale esistente agli estremi di un filo conduttore in modo da mantenere costante il flusso di corrente elettrica.

Uno dei primi generatori elettrici fu inventato da Alessandro Volta: la famosa pila. Ricordo ancora il sorriso (interno) che feci all’università quando il professore mi chiese di descrivergli la pila. Non perché fosse semplice, ma perché mi permetteva di allargare il discorso.

La pila di Volta è costituita fondamentalmente da una colonna di più elementi sovrapposti ciascuno dei quali consiste in un disco di zinco sovrapposto ad uno di rame, uniti attraverso uno strato intermedio di feltro o cartone imbevuto in acqua salata o acidulata. Collegando gli estremi superiore ed inferiore della pila per mezzo di un conduttore elettrico si produce un circuito nel quale passa corrente continua.

L’invenzione venne annunciata in una lettera rivolta a Joseph Banks, presidente della Royal Society di Londra, il 20 marzo 1800; l’esperimento più importante venne effettuato nel 1801 di fronte a Napoleone Bonaparte, che in tale occasione insignì Volta di una medaglia d’oro e lo propose per un cospicuo premio in denaro.

Quindi possiamo dire che un circuito elettrico è un percorso chiuso in cui circola la corrente alimentata da un generatore. Il più semplice circuito elettrico è costituito da un generatore di corrente (pila), un filo metallico (conduttore), un interruttore e un utilizzatore (ad esempio una lampadina). Chiudendo l’interruttore all’interno del circuito passa corrente elettrica e la lampadina si accende.

Si capisce però che se una pila può essere sufficiente per alimentare una lampadina, non lo sarà per alimentare un “utilizzatore” più grande, come ad esempio una lavastoviglie o una smerigliatrice. Servirà una quantità di corrente maggiore.

Poiché un circuito elettrico può essere attraversato da poche o da molte cariche elettriche, occorreva caratterizzare questa nuova situazione introducendo un nuovo concetto, dandone un nome, una definizione e trattandosi di una grandezza anche l’unità di misura.

L’intensità di corrente è definibile come la quantità di carica elettrica che attraversa una sezione di un conduttore nell’unità di tempo; la sua unità di misura è l’ampere (A) e si misura con l’amperometro.

Quindi affinché all’interno di un conduttore ci sia movimento di cariche occorre che al suo interno esista una differenza di potenziale o tensione, vi sia un’intensità e vi sia poca resistenza. Perché questo?

La resistenza elettrica è una grandezza che misura la tendenza di un corpo ad opporsi al passaggio di una corrente elettrica, quando sottoposto ad una tensione, esattamente come un corpo trascinato a terra si oppone al trascinamento con l’attrito. Anche nel caso elettrico, l’opposizione dipende dal materiale con cui è realizzato il conduttore, dalle dimensioni e dalla temperatura.

Georg Simon Alfred Ohm (1789-1854), fisico tedesco, studiò la pila di Volta e utilizzando attrezzature di sua creazione, si accorse che esiste una proporzionalità diretta tra la differenza di potenziale (o tensione) applicata attraverso un conduttore e la corrente elettrica risultante.

La legge risultante dice che in un conduttore metallico l’intensità di corrente è direttamente proporzionale alla tensione applicata ai suoi capi e inversamente proporzionale alla resistenza del conduttore. Inoltre introdusse il concetto di “impedenza”, che è la forza di opposizione di un circuito al passaggio di una corrente elettrica alternata, o, più in generale, di una corrente variabile.

Già, perché, non ve l’ho ancora detto, ma esistono due tipi di corrente. Quella di cui abbiamo parlato finora viene chiamata “corrente continua” (CC o DC, dall’inglese: Direct Current), ed è un tipo di corrente elettrica caratterizzata da un flusso di intensità e direzione costante nel tempo.

Esiste poi la corrente alternata (CA o AC dall’inglese: Alternating Current), che è un tipo di corrente elettrica caratterizzata dal fatto di invertire la polarità elettrica continuativamente nel tempo. In sostanza, a differenza della corrente continua, in cui la polarità è fissa e il valore di corrente costante, nella corrente alternata il polo positivo diventa negativo e viceversa con un’alternanza (da cui il nome) che avviene con periodicità fissa.

Alle origini dell’impiego industriale dell’energia elettrica nel XIX secolo, fu utilizzata la corrente continua, che offriva il vantaggio di potere essere accumulata in batterie, ma con l’avvento della corrente alternata ad opera dello scienziato Nikola Tesla (1856-1943) il mondo fu rivoluzionato nuovamente. L’efficienza di questo nuovo tipo di corrente permise di diminuire drasticamente le perdite energetiche a grandi distanze grazie all’aumento della tensione elettrica che consentiva di trasmettere elevate potenze elettriche ad alta tensione e bassa corrente riducendo drasticamente le perdite per dissipazione sulla linea e quindi lo spessore del conduttore utilizzato per il trasporto, rispetto alla corrente continua di Edison.

La corrente alternata si diffuse grazie all’impiego del trasformatore, che consente di portare la differenza di potenziale (tensione elettrica) a livelli molto alti (alta tensione) e corrispondentemente la corrente a valori molto bassi mantenendo così inalterata la potenza per poi trasmetterla a grandi distanze e con piccole perdite, raggiungendo dunque notevoli economie di scala.

Inoltre, i motori elettrici in corrente alternata sono più affidabili ed efficienti di quelli in continua. Quasi tutti gli apparecchi utilizzatori elettronici di misure minori funzionano in corrente continua ma questa può essere ottenuta, dalla corrente alternata, mediante un semplice raddrizzatore. Per contro, dalla corrente continua è possibile ottenere corrente elettrica alternata, generata in opportuni parametri di frequenza, forma d’onda e tensione mediante dispositivi detti inverter.

L’elettricità ha agevolato moltissimo la nostra vita: basta vedere il numero di elettrodomestici, computer, telefonini che ci circondano; molti di questi sono innocui e utilizzano un basso voltaggio. Altri, allacciati direttamente alla rete elettrica sono pericolosissimi e possono provocare la morte se utilizzati senza le dovute accortezze.

Ma che succede se la corrente elettrica ci colpisce?

Intanto dobbiamo capire qual è il nostro rapporto di base con la corrente elettrica: strano ma vero, aldilà di quanto da me raccontato finora, noi la corrente elettrica la conosciamo da quando nasciamo.

Luigi Galvani (1737-1798) è stato un fisiologo, fisico e anatomista italiano.

Egli osservò che collegando con un arco di rame e zinco il muscolo di una rana scorticata e i suoi nervi, il muscolo si contraeva. Egli interpretò questi risultati come la presenza di un’elettricità intrinseca all’animale, che veniva “liberata” dal contatto con l’arco.

Questi risultati attirarono l’attenzione di Volta, che però ne diede una spiegazione diversa. Nacque così una famosa controversia, che divise per diversi anni la comunità scientifica. La realizzazione della pila da parte di Volta sembrò assegnare la vittoria a quest’ultimo.

Trent’anni, però, gli studi di Galvani vennero ripresi dopo e si potè dimostrare che sia Volta che Galvani avevano parzialmente torto e parzialmente ragione.

Galvani aveva correttamente attribuito le contrazioni muscolari ad uno stimolo elettrico, ma le aveva erroneamente attribuite a “elettricità animale”, mentre Volta aveva negato l’esistenza di questo tipo di elettricità ma aveva sbagliato nel sostenere che ogni effetto elettrofisiologico richieda due metalli diversi come sorgente di corrente.

Il corpo umano è per lo più composto di una soluzione salina conduttrice, e si può dire sia costituito da un insieme d’atomi che, quando perdono o acquistano elettroni, diventano ioni: questi si muovono in zone di minor concentrazione e sono soggetti al campo elettrico generato dall’insieme degli altri ioni.

I segnali elettrici d’ogni cellula del nostro corpo e quindi collegati all’attività biologica, controllano il funzionamento dei vari organi e sono trasmessi dai neuroni del sistema nervoso. In tutti i casi ogni singola cellula vivente presenta una differenza di potenziale fra lato esterno e lato interno della membrana plasmatica; può essere considerata, ed analizzata, come una macchina “elettro-chimica”, con una produzione di corrente veramente bassa.

Diciamo che non riusciremmo ad accendere neanche una lampadina. Però quella corrente è sufficiente per farci vivere, muovere, respirare e fare tutto quello che facciamo.

Dopo aver preso una scossa ci sono delle conseguenze.

La prima è una contrazione muscolare in base al voltaggio preso. Quando siamo vittime di fenomeni simili il nostro corpo riceve un voltaggio che causa contratture delle articolazioni fino a raggiungere la paralisi e, nei casi più gravi, l’arresto cardiaco. In secondo luogo possono crearsi ustioni.

Il valore della corrente elettrica dipende anche dalla resistenza che il corpo umano oppone. Questa diminuisce in presenza di ferite; aumentando la pressione del contatto e aumentando la superficie di contatto; con pelle umida o peggio bagnata dove una corrente di basso voltaggio riesce a far penetrare un notevole flusso di elettroni che poi diventa la causa degli eventuali danni. La resistenza aumenta, invece, in presenza di zone cutanee dallo spesso strato corneo come quelle callose.

Negli USA lo shock elettrico primario è associato ad una mortalità di circa 0,5 per 100.000 persone l’anno. Su 1.000 decessi 5.000 necessitano di un trattamento d’emergenza. In Italia le folgorazioni rappresentano circa il 4% degli infortuni mortali sul lavoro e sono tra il 3% e il 5% dei ricoveri per ustioni.

Ogni anno in Italia ci sono anche 23.000 casi di incidenti domestici dovuti alla corrente elettrica, anche solo per cambiare una lampadina o asciugarsi i capelli. Occhio, poiché la corrente c’è, ma non si vede!

Torna al menu

Il magnetismo e le interazioni con l’elettricità

16

Nel corso della storia, lo scopo principale della fisica è sempre stato quello di fornire una spiegazione unitaria dei diversi processi che avvengono in natura.

Quando ho spiegato le forze (in “Che forza!”), ho detto che ci sono quattro diversi modi in cui le varie particelle che compongono l’Universo si influenzano reciprocamente. Ognuno di questi modi è un’interazione, o, per dirlo in termini più comuni, una forza.

Le quattro forze note sono, in ordine: l’interazione nucleare forte, l’interazione elettromagnetica, l’interazione nucleare debole, l’interazione gravitazionale.

Ma non è sempre stato così. Quando, come ho spiegato in “La corrente elettrica”, i vari Coulomb, Galvani, Volta, Ampère, Faraday e Ohm si inventavano nuovi modi per far impazzire gli studenti del futuro, l’elettricità era una cosa e il magnetismo un’altra.

Dell’elettricità abbiamo già parlato, ma il magnetismo cos’è?

Il nome viene dall’antica città greca di Magnesia, presso la quale furono scoperte le prime “magnetiti”. La magnetite (o calamita naturale) è un ossido di ferro che ha proprietà magnetiche naturali. La tradizione vuole che Talete di Mileto sia stato il primo filosofo a descriverla, attorno al 550 avanti Cristo.

Questi pezzi di roccia avevano la capacità di attrarre il ferro nonché di trasmettere tale capacità ad altri materiali.

Uno degli esperimenti più comuni, che ancora oggi costituisce una fonte di divertimento per i giovani studenti di fisica, consiste nel cospargere di una fine limatura di ferro un foglio di carta posto sopra a una calamita, dando poi dei leggeri colpetti al foglio stesso: la limatura così scossa tende ad allinearsi formando degli archi diretti dal polo nord al polo sud del magnete.

Magnet0873

I magneti diventarono qualcosa di più di una semplice curiosità quando si scoprì che un ago di acciaio messo a contatto con una calamita restava magnetizzato e che, lasciato libero di ruotare in un piano orizzontale, esso finiva col disporsi approssimativamente lungo la direzione nord-sud. Naturalmente tale ago risultò di enorme utilità per i naviganti; esso divenne praticamente indispensabile per la navigazione oceanica.

Non sappiamo chi fu il primo a collocare un ago magnetizzato su un perno e a chiuderlo in un contenitore, realizzando una bussola. Si dice che i primi a farlo furono i cinesi, che avrebbero trasmesso la loro invenzione agli arabi, i quali, a loro volta, l’avrebbero comunicata agli europei. Ma si tratta di notizie dubbie, forse solo di una leggenda. Ad ogni modo, nel dodicesimo secolo la bussola entrò nell’uso comune in Europa, e nel 1269 uno studioso francese, più noto con il nome latinizzato di Petrus Peregrinus, la descrisse dettagliatamente. Peregrinus chiamò “polo nord” e “polo sud” i due estremi del magnete che puntano rispettivamente verso i punti cardinali nord e sud.

Naturalmente ci si chiese la ragione per cui un ago magnetizzato punta verso il nord. Poiché si sapeva che i magneti si attraggono tra loro, qualcuno pensò che esistesse, all’estremo nord, una gigantesca montagna di magnetite verso cui tendeva l’ago. Altri si dimostrarono ancora più fantasiosi, attribuendo ai magneti una sorta di “anima”.

Lo studio scientifico dei magneti iniziò con William Gilbert, il medico di corte della regina Elisabetta I; fu Gilbert a scoprire che la terra stessa è un gigantesco magnete. Egli montò un ago magnetizzato in modo che potesse ruotare in un piano verticale (“bussola di inclinazione”): il polo nord dell’ago si orientò verso il suolo (“inclinazione magnetica”). Usando una calamita sferica come modello della terra, Gilbert trovò che l’ago si comportava allo stesso modo quando era situato sull’emisfero settentrionale della sua sfera. Gilbert pubblicò i risultati dei suoi esperimenti nel 1600 in un’opera classica, intitolata “De Magnete”.

Gli scienziati discussero a lungo la possibilità che la terra avesse come nucleo un gigantesco magnete naturale. Pur essendo risultato vero che la terra ha un nucleo di ferro, oggi si sa che esso non può sicuramente essere un magnete, perché il ferro, riscaldato, perde le sue intense proprietà magnetiche (“ferromagnetismo”) a 760 gradi C, mentre la temperatura del nucleo terrestre deve essere di almeno 1000 gradi C.

Se il nucleo di ferro della terra non è esso stesso un magnete permanente, a causa della sua temperatura superiore a quella limite, si deve trovare un’altra spiegazione dell’azione della terra sull’ago della bussola. Tale spiegazione cominciò a emergere in conseguenza delle scoperte dello scienziato inglese Michael Faraday sulla relazione tra magnetismo ed elettricità.

Il lavoro di Faraday si basava sul lavoro del fisico danese Hans Christian Oersted (1777-1851), che nel 1820 fece una delle scoperte più importanti della storia della fisica, a quanto pare in modo del tutto inatteso: osservò che esisteva un legame tra magnetismo ed elettricità, ponendo le basi di quel ramo della fisica noto con il nome di elettromagnetismo. Avendo inviato una corrente elettrica lungo un filo di rame collegato ai due poli di una pila, Oersted osservò che l’ago di una bussola posta nelle vicinanze dell’apparecchiatura, inizialmente diretto parallelamente al filo in direzione Nord-Sud, subiva una rotazione di 90° e si disponeva perpendicolare al filo. Invertendo il verso della corrente, l’ago ruotava di 180°, invertendo la posizione dei suoi poli ma restando perpendicolare al filo percorso da corrente. La corretta interpretazione di Oersted fu che un filo elettrico percorso da corrente generava attorno a sé un campo magnetico.

Più in generale, l’esperienza di Oersted dimostrava che una corrente elettrica genera un campo magnetico. Prima di questo esperimento si era tentato di trovare un legame tra le cariche elettriche e i magneti, ma senza risultato, poiché di fatto un campo magnetico non ha alcun effetto su una carica elettrica in stato di quiete, ma soltanto su una carica in movimento. Infatti, solo le cariche elettriche in moto producono un campo magnetico.

Le linee di forza del campo magnetico generato da un filo percorso da corrente sono perpendicolari alla corrente in ogni punto: ciò significa che sono rappresentate da cerchi concentrici attorno al filo. Il verso delle linee di forza (la direzione del polo nord del magnetino di prova) è dato dalla regola della mano destra: afferrando il filo con la mano destra e puntando il pollice in direzione della corrente, le dita della mano indicano il verso delle linee di forza del campo magnetico generato dal filo. Le linee di forza inoltre sono tanto più fitte quanto più è intensa la corrente che passa nel filo e quanto minore è la distanza dal filo stesso.

Nel caso in cui la corrente percorra un filo avvolto a spira anziché un filo rettilineo, le linee di forza del campo sono ancora perpendicolari al filo in ogni punto e il suo verso è quello di una vite destrorsa che percorre il filo nel senso della corrente. Un filo percorso da corrente avvolto a spirali ravvicinate costituisce un solenoide. Un solenoide percorso da corrente produce anch’esso, naturalmente, un campo magnetico, prodotto dalla somma dei campi magnetici di ciascuna spira del solenoide. All’interno del solenoide le linee di forza del campo magnetico sono parallele, ovvero il campo è uniforme. Il campo magnetico prodotto da un solenoide percorso da corrente può perciò essere assimilato a quello prodotto da una sbarretta magnetica, i cui poli sono posti agli estremi del solenoide e dipendono dal verso della corrente.

L’intensità del campo magnetico prodotto da un solenoide può essere notevolmente aumentata applicando all’interno delle spire del solenoide una sbarra di ferro o di un altro materiale ferromagnetico: il solenoide magnetizza il ferro e il campo magnetico prodotto dal solenoide si somma a quello prodotto dal magnete artificiale. Un sistema di questo tipo viene chiamato elettromagnete. Gli elettromagneti sono molto usati nelle applicazioni tecnologiche: la forza di attrazione che possono esercitare dipende dal numero di avvolgimenti e dall’intensità della corrente che circola nelle spire e può raggiungere valori estremamente elevati. Piccoli elettromagneti si trovano per esempio nei campanelli e negli altoparlanti, mentre grossi elettromagneti sospesi a gru permettono di sollevare grandi quantità di materiali ferrosi negli impianti di trattamento dei metalli.

Non solo quindi un filo percorso da corrente esercita una forza su un magnete, generando un campo magnetico, ma vale anche il viceversa, ovvero un magnete esercita una forza su un filo percorso da corrente. Un campo magnetico genera dunque una forza che non si risente soltanto su un magnete, ma anche su un conduttore percorso da corrente. Ma poiché Oersted dimostrò che un conduttore percorso da corrente genera un campo magnetico, Ampère ne dedusse che due fili percorsi da corrente devono esercitare una forza l’uno sull’altro, ovvero attrarsi o respingersi a seconda del verso reciproco delle rispettive correnti. E infatti due conduttori rettilinei percorsi da corrente tendono ad attrarsi se sono percorsi da correnti che viaggiano nello stesso verso e tendono a respingersi se le due correnti hanno versi opposti.

Sull’attrazione tra due fili percorsi da corrente è basata la definizione dell’unità di misura della corrente elettrica, l’ampere: l’ampere infatti è definito come la corrente che, percorrendo due conduttori rettilinei paralleli, di lunghezza infinita, posti nel vuoto a una distanza di 1 m l’uno dall’altro, produce fra di essi una forza di 2·10−7 newton per ogni metro di lunghezza.

Dalle misure del campo magnetico terrestre si è trovato che i poli magnetici (che per comodità continueremo a chiamare rispettivamente nord e sud in corrispondenza dei poli geografici) non coincidono esattamente con i poli geografici. L’asse che li congiunge (asse del dipolo) forma con l’asse di rotazione della Terra un angolo di 11° 05′ e incontra la superficie della Terra in due punti situati rispettivamente vicino a Thule, in Groenlandia (polo Nord geomagnetico) e vicino a Vostok, in Antartide (polo Sud geomagnetico).

Quindi, con la prossima volta, chiuderemo con la fisica classica e scopriremo chi è l’assassino: sappiamo già che non è il maggiordomo!

Torna al menu

L’elettromagnetismo

17

In tutti i gialli che si rispettino esistono più storie e una sola verità. Come promessovi, il giallo “chi ha ucciso la fisica classica” è giunto al suo epilogo. E l’assassino è proprio lui, Albert Einstein, come scopriremo quando tratterò di fisica “moderna”. Ma prima di arrivare al finale, ricapitoliamo gli ultimi indizi.

Come raccontavo ne “Il magnetismo“, gli scienziati iniziarono a notare che il campo elettrico e quello magnetico avevano delle connessioni, anzi, grazie al lavoro di Faraday che aveva scoperto il principio dell’induzione elettrica e creato il primo “trasformatore”, si posero anche le basi su cui poi James Clerk Maxwell (1831-1879) eresse la propria teoria “elettromagnetica”, che collegava la luce con altre forme di radiazione (come le onde radio) in un’unica famiglia, quella delle “radiazioni elettromagnetiche”.

Così verso la fine del XIX secolo sembrava che l’edificio concettuale della fisica fosse ormai completato. La meccanica newtoniana da un lato e la teoria maxwelliana dell’elettromagnetismo, dall’altro, parevano fornire la chiave di interpretazione e di previsione di tutti i fenomeni, dal moto dei pianeti al comportamento di cariche elettriche.

Esempi eclatanti della capacità di previsione e della potenza dei modelli interpretativi newtoniani e maxwelliani furono la scoperta del pianeta Nettuno, fatta nel 1846 dall’astronomo Galle dell’osservatorio di Berlino, su calcoli di Urbain Leverrier e la scoperta delle onde elettromagnetiche previste teoricamente da Maxwell nel 1873 da parte di Hertz nel 1886, purtroppo per Maxwell dopo la propria morte, avvenuta a causa di un tumore all’addome.

La seconda metà del secolo XIX fu caratterizzata da importanti fenomeni in campo economico, sociale e filosofico, strettamente intrecciati con il trionfo della fisica classica. In campo economico e sociale ci fu l’inizio impetuoso della seconda rivoluzione industriale, fondata sull’uso dell’energia elettrica (macchine elettriche nelle industrie ed elettrodomestici, illuminazione pubblica, trasporti ferroviari); in quegli anni si avviò inoltre l’utilizzazione delle onde elettromagnetiche per le trasmissioni (nel 1897 Guglielmo Marconi inventò il radiotelegrafo).

Solo alcuni fenomeni, apparentemente marginali, erano al di fuori del quadro interpretativo della fisica classica, ma il convincimento di quasi tutti gli scienziati dell’epoca era che prima o poi anche questi avrebbero trovato una collocazione all’interno della fisica classica.

I fatti dimostrarono che le cose non stavano così; lo studio sperimentale e teorico dei problemi irrisolti portò al superamento della fisica classica, che da teoria generale in grado di interpretare tutta la realtà fu ridotta al rango di ottimo modello in grado di spiegare e prevedere fenomeni in un limitato ambito di validità.

In effetti, i fenomeni su cui si è sviluppata la fisica classica sono quelli che più direttamente rientrano nell’esperienza comune ed usuale di tutti gli uomini, come la caduta dei gravi ed il moto dei proiettili, il moto dei pianeti, il lento movimento di cariche elettriche nei circuiti. In sostanza la fisica classica è nata e si è sviluppata su fenomeni che riguardano corpi lenti e grandi; in questo ambito essa è un metodo scientifico di prima classe.

Non è affatto detto, però, che la fisica classica sia in grado di interpretare altrettanto bene la realtà al di fuori di questo ambito, su fenomeni che coinvolgono velocità paragonabili a quella della luce o dimensioni piccole come quelle degli atomi o delle particelle elementari.

È interessante notare che questa considerazione, della cui validità abbiamo oggi prove evidenti, era per gli scienziati dell’epoca poco credibile, tenendo conto che la fisica newtoniana era nata con l’affermazione che stesse leggi regolano i corpi celesti e quelli terrestri, in contrasto con la pre-esistente concezione aristotelica.

Uno dei filoni di ricerca che maggiormente contribuì al superamento della fisica classica fu quello relativo alla propagazione ed all’emissione della luce. L’indipendenza della velocità della luce dal sistema di riferimento scelto, dimostrata sperimentalmente da Michelson e Morley nel 1881, metteva in crisi il principio galileiano di composizione delle velocità.

Inoltre, il principio di relatività galileiana sembrava essere in contrasto con le equazioni di Maxwell che modificano la loro forma nel passaggio da un sistema di riferimento inerziale ad un altro.

Tutto questo portò Albert Einstein a riaffermare il criterio di relatività, mettendo però in crisi la concezione classica dello spazio e del tempo con la teoria della relatività ristretta nel 1905.

D’altro canto, gli studi sull’emissione della luce da parte di un corpo incandescente (corpo nero), avevano portato Max Planck nel 1900 a ipotizzare che gli atomi eccitati emettessero energia non in modo continuo ma per quantità discrete, gettando così le basi della fisica quantistica che, come vedremo, costituisce un valido modello interpretativo dei fenomeni su scala atomica e subatomica.

L’ipotesi quantistica di Planck permise inoltre nel 1905 ad Einstein di interpretare un altro fenomeno classicamente inspiegabile: l’effetto fotoelettrico, con il quale lo scienziato di Ulm vinse il Premio Nobel nel 1921.

Un altro potente impulso all’affermazione della fisica quantistica nella scala microscopica venne dalle teorie sulla struttura dell’atomo. Nel 1897, infatti, la scoperta dell’elettrone da parte di J.J. Thomson dimostrò con chiarezza che l’atomo non poteva essere considerato il costituente elementare della materia, ma era a sua volta formato da particelle più semplici. La costruzione di un valido modello atomico e nucleare confermò l’inadeguatezza, su questa scala, della fisica classica e la necessità di interpretare le cose dal punto di vista quantistico.

La crisi della fisica classica fu la premessa di un tumultuoso sviluppo scientifico. I nuovi modelli interpretativi permisero di prevedere nuovi fenomeni ed aprirono la strada al superamento del dualismo tra onda e particella. Nella fisica classica esistono i fenomeni corpuscolari ed i fenomeni ondulatori con una netta separazione tra essi, nel senso che un singolo fenomeno può essere visto o in una chiave oppure nell’altra, senza possibilità di commistione tra esse.

Nel mondo microscopico, viceversa, la separazione tra i due punti di vista cade: la radiazione può presentare caratteri corpuscolari e le particelle mostrare aspetti ondulatori. Il comportamento delle onde di materia deve essere descritto da una nuova teoria, la meccanica quantistica (o meccanica ondulatoria) fondata nel 1925 indipendentemente da Erwin Schrödinger e Werner Heisemberg.

In meno di 30 anni, a partire dal 1900, il panorama della fisica cambiò radicalmente: al posto di un unico modello interpretativo, la fisica classica, si avevano due teorie più generali, la fisica quantistica e la fisica relativistica, una valida per piccole dimensioni, l’altra per velocità elevate.

Dalla prossima volta inizierò la seconda parte di questo “Libro di Fisica”, proprio parlando di come la fisica moderna entrò nelle nostre vite, per non uscirci più.

Un’ultima cosa, dedicata al mio amico fraterno Ugo, che non sempre apprezza questi articoli (in realtà ha poco tempo libero e preferisce dedicarlo ai suoi tre splendidi figli e alla bella moglie).

La curiosità, l’intenso desiderio di sapere, non compare nella materia morta, e sembra non essere caratteristica neppure di certe forme di organismi viventi, che, proprio per tale ragione, a gran fatica riusciamo a considerare come viventi.

Un albero non mostra curiosità per il suo ambiente, almeno in modo per noi riconoscibile; lo stesso vale per una spugna o un’ostrica: il vento, la pioggia, le correnti dell’oceano apportano loro ciò di cui abbisognano, ed essi ne traggono quello che possono. Se il caso fa sì che ciò che giunge a loro siano il fuoco, un veleno, dei predatori o dei parassiti, essi muoiono stoicamente e tacitamente come sono vissuti.

Ecco, noi non siamo come quell’albero o come quella spugna, e abbiamo una cosa che quelli non hanno: il desiderio di sapere.

Il cervello umano è il pezzo di materia organizzato nel modo più meraviglioso di tutto l’universo conosciuto; la sua capacità di ricevere, organizzare e immagazzinare dati supera enormemente le necessità ordinarie della vita. È stato calcolato che, nel corso di una vita, l’essere umano è in grado di apprendere fino a 15 miliardi di miliardi di informazioni elementari.

E noi come possiamo fermarci davanti a quattro pagine di un blog?

Torna al menu

3 pensieri riguardo “Il Libro di Fisica – la fisica classica

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...