La particella di zio – parte seconda

Se in qualche cataclisma andassero perdute tutte le conoscenze scientifiche, e una sola frase potesse essere tramandata alle generazioni successive, quale enunciato conterrebbe la maggiore informazione nel minor numero di parole? Io credo si tratti dell’ipotesi atomica, cioè che tutte le cose sono fatte di atomi, piccole particelle in perpetuo movimento che si attraggono a breve distanza, ma si respingono se pressate l’una contro l’altra.

(Richard Feynman – Sei pezzi facili)

Il premio Nobel per la fisica Richard Feynman (1918 – 1988), all’inizio delle sue “Lectures”, lezioni di fisica tenute nel 1961 e 1962 agli studenti del primo e secondo anno del Caltech (California Institute of Technology), spiega com’è fatto un atomo. E lo fa in un modo così semplice che chiunque (anche tu, Andrea!) gli può stare dietro. Vi consiglio di leggerlo.

Abbiamo visto nel precedente brano (La particella di zio – parte prima) quali siano i mattoni principali che costituiscono gli atomi. Più atomi formano le molecole, mentre gli atomi sono a loro volta formati da costituenti subatomici quali i protoni, con carica positiva, i neutroni, con carica neutra (che formano il nucleo) e gli elettroni, con carica negativa (che “girano” intorno al nucleo).

Senza addentrarmi troppo nelle descrizioni chimiche e fisiche, le definizioni che ho appena scritto potevano andare bene all’inizio, nella fase embrionale della cosiddetta “teoria atomica”. Man mano che la scienza progrediva, le definizioni e le scoperte andavano a migliorare il modello.

Come abbiamo già detto, Rutherford fu il primo a descrivere l’atomo in maniera abbastanza vicina alla realtà: propose un modello di atomo in cui quasi tutta la massa dell’atomo fosse concentrata in una porzione molto piccola, il nucleo (carico positivamente) e gli elettroni gli ruotassero attorno così come i pianeti ruotano attorno al Sole (modello planetario). Era quasi giusto, sia perché nel suo modello atomico non comparivano i neutroni, successivamente scoperti da Chadwick nel 1932, sia perché il modello non teneva conto delle piccole discrepanze tra teoria ed osservazioni successive.

Grazie al fatto che si faceva strada la teoria quantistica, nel 1913 Niels Bohr propose una modifica concettuale al modello di Rutherford. Pur accettandone l’idea di modello planetario, postulò che gli elettroni avessero a disposizione orbite fisse, dette anche “orbite quantizzate”, queste orbite possedevano un’energia quantizzata nelle quali gli elettroni non emettevano né assorbivano energia: in particolare, un elettrone emetteva o assorbiva energia sotto forma di onde elettromagnetiche solo se effettuava una transizione da un’orbita all’altra, e quindi passava ad uno stato a energia minore o maggiore.

Questo era il modo migliore per spiegare come mai gli elettroni, se giravano intorno al nucleo, non ne venissero fatalmente attratti.

Ciò nonostante, il modello di Bohr si basava ancora su postulati e soprattutto funzionava bene solo per l’idrogeno: tutto ciò, alla luce anche del principio di indeterminazione introdotto da Werner Karl Heisenberg nel 1927, convinse la comunità scientifica che fosse impossibile descrivere esattamente il moto degli elettroni attorno al nucleo, motivo per cui ai modelli deterministici fino ad allora proposti si preferì ricercare un modello probabilistico, che descrivesse con buona approssimazione qualsiasi atomo.

Quindi si passò da un modello planetario, quello di Rutherford, ad uno ad orbite fisse, quello di Bohr, ad uno impossibile da descrivere visivamente.

Fu abbandonato il concetto di orbita e fu introdotto il concetto di orbitale. Secondo la meccanica quantistica non ha più senso infatti parlare di traiettoria di una particella: da ciò discende che non si può neanche definire con certezza dove un elettrone si trova in un dato momento. Ciò che è possibile conoscere è la probabilità di trovare l’elettrone in un certo punto dello spazio in un dato istante di tempo. Un orbitale quindi non è una traiettoria su cui un elettrone (secondo le idee della fisica classica) può muoversi, bensì una porzione di spazio intorno al nucleo definita da una superficie di equiprobabilità, ossia entro la quale c’è il 95% della probabilità che un elettrone vi si trovi.

A quel punto nacque la fisica delle particelle. E si scoprì che le particelle erano ben più di tre. Ma facciamo un passo indietro.

Dmitrij Ivanovič Mendeleev (1834 – 1907) fu un chimico russo. Nel 1868 iniziò a scrivere il suo libro, “Princìpi di chimica”. Il suo progetto prevedeva la sistematizzazione di tutte le informazioni dei 63 elementi chimici allora noti. Lo scienziato russo preparò 63 carte, una per ciascun elemento, sulle quali dettagliò le caratteristiche di ognuno. Ordinando le carte, secondo il peso atomico crescente, si accorse che le proprietà chimiche degli elementi si ripetevano periodicamente. Sistemò i 63 elementi conosciuti nella sua tavola e lasciò tre spazi vuoti per gli elementi ancora sconosciuti.

Che cos’è il peso atomico? Senza entrare in tecnicismi, il peso atomico è legato al numero totale di neutroni e protoni presenti nel nucleo. Il peso reale è leggermente inferiore alla somma dei pesi dei differenti componenti perché protoni e neutroni hanno massa diversa (anche se solo del 2‰) e perché parte della massa delle particelle costituenti il nucleo viene ceduta sotto forma di energia di legame nella fase di nucleosintesi, riducendo il peso totale con un meccanismo noto come difetto di massa. Il peso degli elettroni modifica solo leggermente il totale, perché la massa di un elettrone è pari a 1⁄1836 quella di un protone, se considerati entrambi a riposo.

Senza che Mendeleev lo sapesse, pochi anni prima avevano già tentato l’impresa Lothar Meyer (1864) e John Newlands (1865), le cui tavole non consentivano però la previsione di nuovi elementi ancora non scoperti. In più, nei casi in cui le proprietà di un elemento comportavano il suo inserimento in una casella diversa da quella corrispondente al suo peso atomico, Mendeleev coraggiosamente cambiava l’ordine, sostenendo che le proprietà sono più importanti del peso atomico.

Per esempio, il tellurio, con un peso atomico di 127,61, dovrebbe venire dopo lo iodio, che ha peso atomico 126,91, seguendo il criterio dei pesi atomici; mettendo invece il tellurio prima dello iodio, esso risulta sotto al selenio, a cui somiglia molto, mentre lo iodio in tal modo risulta sotto al bromo, suo parente stretto.

Infine, ed è la cosa più importante, là dove Mendeleev non trovava altro modo per far funzionare le cose, non esitò a lasciare dei posti vuoti nella tavola, annunciando, con quella che apparve una sicumera inaudita, che si sarebbero in futuro scoperti gli elementi che avrebbero riempito le caselle vuote. E si spinse ancora oltre. Per tre di tali buchi descrisse gli elementi che dovevano riempirli, utilizzando come guida le proprietà degli elementi soprastanti e sottostanti nella tabella. E qui Mendeleev ebbe un colpo di fortuna. Tutti e tre gli elementi da lui previsti furono scoperti mentre era ancora in vita, consentendogli di assistere al trionfo del suo sistema.

Dopo la scoperta dei raggi X, venne alla luce che proprio tramite quelli era possibile distinguere gli elementi: nel 1914, il giovane fisico inglese Henry Gwyn-Jeffreys Moseley determinò le lunghezze d’onda dei raggi X caratteristici prodotti da vari metalli, arrivando all’importante scoperta che la lunghezza d’onda diminuiva con regolarità man mano che si procedeva nella tavola periodica. I chimici numerarono così gli elementi da 1 (idrogeno) a 92 (uranio). Risultò poi che i “numeri atomici” così ottenuti erano importanti dal punto di vista della struttura interna degli atomi, ben più di quanto non lo fossero i pesi atomici. Per esempio, i dati forniti dai raggi X mostrarono che Mendeleev aveva avuto ragione nel porre il tellurio (numero atomico 52) prima dello iodio (numero atomico 53), nonostante il maggior peso atomico del primo.

Senza tirarla troppo per le lunghe, ci sono attualmente 118 elementi noti, alcuni stabili, altri instabili, alcuni esistenti in natura, altri creati in laboratorio. Ma ci sono due cose da tenere a mente. Intanto, che tutta la materia è formata da alcuni di quei 118 elementi; poi, che il funzionamento degli stessi ci fornisce uno strumento essenziale per effettuare tante altre scoperte, sia teoriche sia pratiche. E gli scienziati non si sono fatti pregare.

Infatti negli anni cinquanta e sessanta si svilupparono macchine in grado di produrre e rivelare un’incredibile varietà di particelle. Si faceva riferimento a queste come allo “zoo delle particelle”. Questo termine venne abbandonato dopo la formulazione del modello standard, durante gli anni settanta, nel quale questo grande numero di particelle venne spiegato in termini della combinazione di un numero (relativamente) piccolo di particelle fondamentali. Infatti fu necessario mettere un po’ d’ordine al caos che si stava creando.

Il principio fisico per lo studio di nuove particelle è quello semplice degli urti ad elevata energia: facendo collidere tra di loro particelle ad alta energia cinetica, ovvero a velocità prossime alla velocità della luce, il prodotto può essere, per l’equivalenza tra massa ed energia, una nuova particella a massa superiore che eventualmente decade in altre particelle figlie. Dall’analisi di tali decadimenti è possibile risalire alle caratteristiche della particella madre.

L’Italia ha un ruolo di primo piano nella fisica delle particelle, partecipando con posizioni di responsabilità importanti alla realizzazione ed alle ricerche che si effettuano nei più importanti progetti. Le ricerche in questo settore sono finanziate in Italia in gran parte dall’INFN (Istituto Nazionale di Fisica Nucleare) che collabora con decine di dipartimenti di fisica delle diverse università italiane.

Nel 1984 l’italiano Carlo Rubbia ha ricevuto Premio Nobel per la fisica per la conferma sperimentale dei Bosoni W± e Z al CERN di Ginevra.

L’Italia è uno stato membro fondatore del CERN, e per tre volte ha avuto la direzione generale del laboratorio (Carlo Rubbia, dal 1989 al 1993, Luciano Maiani dal 1999 al 2003, Fabiola Giannotti dal 2015).

Prima di andare avanti, rispondo a quello che ha pensato: “Sì, ok, ma a che serve?” (tanto lo so che c’è).

Le spese pubbliche per finanziare i grandi progetti di ricerca hanno spesso avuto ricadute tecnologiche positive di rilievo anche in settori diversi da quelli che le attività di ricerca hanno come finalità principale. Tra le applicazioni che sono nate dall’ambiente di ricerca della fisica delle particelle vi sono:

  • il World Wide Web, nato al CERN per migliorare gli strumenti di comunicazione scientifica, il protocollo HTTP ed il linguaggio HTML;
  • rivelatori di particelle utilizzati per diagnostica medica;
  • l’adroterapia, che dovrebbe curare il cancro attraverso l’uso di acceleratori. Grazie alla possibilità di controllare con precisione l’energia e la localizzazione delle particelle accelerate, è possibile depositare dosi di radiazione in maniera controllata per distruggere le cellule cancerose senza danneggiare i tessuti circostanti;
  • la tomografia ad emissione di positroni, o PET, uno strumento di diagnostica medica che utilizza l’antimateria.

Sistemati gli agnostici con i diagnostici, torniamo a noi.

Avevamo spiegato che esistono tre particelle, protone, neutrone ed elettrone. Grazie agli acceleratori di particelle, sono state scoperte molte altre particelle, anche se a volte è stato necessario aspettare anni per vedere il risultato delle teorie.

Ad un certo punto si comprese che all’interno dell’atomo vi erano altre particelle. Becquerel, quando aveva scoperto la radioattività, si era reso conto che, mentre una parte della radiazione emessa dalle sostanze radioattive era costituita da elettroni, un’altra parte non lo era. I Curie in Francia ed Ernest Rutherford in Inghilterra avevano identificato una radiazione che era meno penetrante di un fascio di elettroni; Rutherford la denominò “raggi α (alfa)”, e chiamò “raggi β (beta)” l’emissione formata da elettroni; pertanto gli elettroni, quando entrano a far parte di una radiazione, sono denominati “particelle beta”. I raggi alfa risultarono anch’essi costituiti di particelle che furono chiamate “particelle alfa”. Nello stesso periodo il chimico francese Paul Ulrich Villard scoprì una terza forma di emissione radioattiva, cui fu dato il nome di “raggi γ (gamma)”. Alfa, beta e gamma sono le prime tre lettere dell’alfabeto greco.

Per primo Rutherford, seguito da tutti gli altri scienziati dell’epoca, con strumenti via via sempre più sofisticati, iniziò a bombardare gli elementi con le particelle alfa.

Quando bombardò i nuclei di azoto con le particelle alfa in una delle originarie camere a nebbia di Wilson, la particella alfa lasciava una traccia che terminava improvvisamente con una biforcazione, evidentemente a causa di una collisione con un nucleo di azoto. Uno dei due rami era relativamente sottile, e rappresentava un protone sbalzato via. L’altro ramo, una traccia corta e grossa, rappresentava ciò che restava del nucleo di azoto che aveva subìto la collisione. Ma della particella alfa stessa non vi era alcuna traccia. Sembrava che dovesse esser stata assorbita dal nucleo di azoto, supposizione che fu in seguito confermata dal fisico inglese Patrick Maynard Stuart Blackett; si dice che questi abbia effettuato più di ventimila fotografie per arrivare a mettere insieme otto di tali collisioni (certamente un esempio di pazienza, fede e tenacia sovrumane). Per questo e altri lavori nel campo della fisica nucleare, Blackett ricevette il premio Nobel per la fisica nel 1948.

A quel punto era possibile ricostruire cosa fosse successo al nucleo di azoto: catturando una particella alfa, il suo numero di massa saliva da 14 a 18 e la sua carica positiva da 7 a 9; dato però che la combinazione espelleva immediatamente un protone, il numero di massa ridiscendeva a 17 e la carica positiva a 8. Ora, l’elemento di carica positiva 8 è l’ossigeno, mentre il numero di massa 17 individua l’isotopo dell’ossigeno 17. In altri termini, Rutherford, nel 1919, aveva trasmutato l’azoto in ossigeno. Si trattava della prima trasmutazione artificiale della storia umana. Il sogno degli alchimisti era stato realizzato, anche se in una maniera che essi non avrebbero potuto né prevedere né attuare con le loro tecniche primitive.

Come proiettili, le particelle alfa ottenute dalle sorgenti radioattive presentavano dei limiti: non avevano certo abbastanza energia per riuscire a penetrare nei nuclei degli elementi più pesanti, le cui elevate cariche positive esercitano una forte repulsione sulle particelle cariche positivamente. Ma la fortezza del nucleo era stata violata, e attacchi più energici sarebbero seguiti.

La prossima volta vedremo la famiglia delle particelle fino ad arrivare all’ultimogenita, la particella Xi.

Uomini coraggiosi

Nella vita dell’umanità ci sono state persone che hanno fatto numero e persone che hanno fatto la differenza, sia in positivo, sia in negativo. Ci sono anche persone che avrebbero potuto fare la differenza, ma che per una serie di eventi, non l’hanno fatta.

Nel 2001 uscì nelle sale un film (il terzo) di Sean Penn, con Jack Nicholson. Il titolo è “La promessa (The pledge)”. Non voglio “spoilerare” (il verbo “spoilerare” è formato per derivazione dal termine spoiler, preesistente in italiano, con l’aggiunta del suffisso -are, e non dal corrispondente verbo inglese to spoil, che avrebbe dato origine a spoilare, ed ha il significato di “dare un’informazione che mira a rovinare la fruizione di un film, un libro e simili rivelando la trama, la conclusione, l’effetto sorpresa, eccetera a chi partecipa a un newsgroup, a una mailing list, a una chat”; è possibile evitarlo facilmente con circonlocuzioni quali “Tizio ha svelato il finale del film” o “Caio ha rivelato lo snodo cruciale del romanzo”), quindi guardatevelo.

Ambientato nella provincia americana del Nevada, è un film classico, esteticamente a basso costo, nonostante vanti un grandissimo cast, che ha la sua forza nell’attesa. Un’attesa che serve a costruire e far crescere un personaggio, che lentamente sembra perdere la ragione e le persone che gli stanno vicino. Un film poliziesco dove non succede nulla, neanche in un finale tra i più atipici per il genere a cui fa riferimento. Si tratta di una pellicola che vive di situazioni, di atmosfere, di tempi narrativi e a questo livello Sean Penn costruisce un mondo normale, incentrato su un personaggio ordinario, che ha chiaramente ragione, ma che non viene capito dal mondo circostante. E questo lo porterà a un isolamento, a una lotta faccia a faccia tra un uomo e un’ombra, ma soprattutto lo spingerà oltre fino a farlo trovare di fronte alla più incontrastabile delle forze: il destino. E proprio il destino la chiave del film. Il destino segnerà il finale, aprirà una serie di punti interrogativi a cui non sarà facile rispondere, ma soprattutto lascerà lo spettatore con qualcosa dentro, una sorta di riflessione su toni e tematiche da interiorizzare.

Ci sono state persone che, nella storia dell’umanità, hanno dovuto piegarsi a un destino crudele.

Charles Butler McVay III nacque il 30 luglio 1898 a Ephrata, in Pennsylvania, Stati Uniti. Suo padre, l’Ammiraglio Charles Butler McVay Jr, aveva comandato la Yankton, una delle 16 navi che avevano partecipato alla “Great White Fleet” tra il 1907 e il 1908. Laureatosi presso l’Accademia Navale degli Stati Uniti nel 1920, ricoprì vari incarichi, dirigendo anche il “Joint Intelligence Committee” del “Combined Chiefs of Staff” (una sorta di Stato Maggiore di tutti gli Stati Maggiori delle Forze Armate) a Washington.

Nel 1944 prese il comando della USS Indianapolis e lì si compì il suo destino e quello dei 1.196 uomini di equipaggio.

La Seconda Guerra Mondiale aveva preso ormai una certa direzione e gli “alleati” stavano, pezzo dopo pezzo, smontando il dominio che la cosiddetta “Asse” aveva faticosamente e con il prezzo di milioni di morti, costruito.

Nonostante questo, gli indomiti giapponesi, pur sapendo dei piani degli Stati Uniti riguardo l’uso dell’atomica per porre fine alla guerra, continuavano a battagliare, come per esempio nella famosa “Battaglia di Iwo Jima”, che si svolse durante la guerra nel Pacifico nell’omonima isola giapponese tra le forze statunitensi al comando dell’ammiraglio Raymond Spruance e le truppe dell’esercito imperiale giapponese al comando del generale Tadamichi Kuribayashi, coadiuvate da reparti della marina guidati dal contrammiraglio Toshinosuke Ichimaru.

L’Ammiraglio Spruance dirigeva le operazioni proprio dal ponte di comando della Indianapolis, che abbatté agli ordini di McVay sette aerei giapponesi prima di essere colpita da un kamikaze a fine marzo del ’45, quando ormai la battaglia era finita.

McVay portò la propria nave in California per le riparazioni e al termine delle stesse ebbe l’ordine di trasportare del materiale (l’involucro e la carica di uranio della prima bomba atomica) a Tinian, base americana del Pacifico dove si stava preparando l’attacco finale al Giappone.

Consegnata la bomba, il 26 luglio ripartì dal porto in direzione di Leyte nelle Filippine per unirsi alla task force dell’ammiraglio McCormick, senza alcuna scorta nonostante il rischio di un attacco subacqueo fosse riportato ancora come non lieve. Lungo la rotta prescelta tra le tre possibili, chiamata in codice “Peddie”, era in agguato il sommergibile giapponese I-58, con a bordo anche dei siluri umani Kaiten (siluri con un membro di equipaggio che doveva compiere un attacco suicida). La nave procedeva alla velocità di 17 nodi e senza zigzagare, in quanto gli ordini erano di “zigzagare a discrezione in base anche alle condizioni meteo”, e non veniva richiesto di mantenere una elevata velocità. Il comandante giapponese Mochitsura Hashimoto non era però entusiasta dell’uso dei Kaiten e optò per l’attacco convenzionale, lanciando una salva di siluri. Due di questi siluri centrarono la fiancata dell’Indianapolis causando l’interruzione dell’energia elettrica e l’allagamento della nave che iniziò a sbandare.

A questo punto iniziarono una “serie di sfortunati eventi”…

Abbiamo detto della mancanza della scorta: in realtà McVay aveva richiesto un cacciatorpediniere di scorta, ma la priorità in quei giorni era di scortare le navi verso Okinawa o di raccogliere i superstiti e tutto sommato quella zona del Pacifico era ritenuta abbastanza tranquilla. Pesa anche il fatto che i cacciatorpedinieri avevano in genere dei sistemi sonar per rilevare i sottomarini nemici, ma la Indianapolis quel sistema non lo aveva, quindi la somma delle due cose orientò verso quella che fu una decisione sciagurata.

Inoltre, la settimana prima, il 24 luglio, il cacciatorpediniere Underhill era stato affondato proprio da quelle parti da un sottomarino giapponese, ma McVoy non ne era stato informato. Ufficialmente perché l’informazione era classificata. In pratica gli dissero solo di stare attento e di “zigzagare a discrezione”…

Appena colpita, dalla Indianapolis partirono tre messaggi di SOS. Digressione: tutti pensano che SOS sia l’acronimo per “Save Our Souls”, ma in realtà quella frase fu usata quattro anni dopo l’invenzione dell’alfabeto Morse, in occasione dell’affondamento del Titanic. SOS era un segnale facile da ricordare, da trasmettere e da leggere (tre-punti-tre-linee-tre-punti). In Italia, nella prima metà del ‘900, sotto la spinta italianizzatrice fascista SOS fu invece tradotto in “Soccorso Occorre Subito”. Fine digressione.

Che fine fecero le tre richieste di aiuto dell’Indianapolis? Assurdo, ma vero: la stazione che ricevette la prima richiesta, ipotizzò che si trattasse di una falsa richiesta di aiuto mandata dai giapponesi per infliggere danni agli eventuali soccorritori; la seconda richiesta di aiuto andò inevasa, in quanto il comandante della stazione aveva detto ai suoi uomini di non disturbarlo per nessun motivo; la terza, arrivò ad una piccola stazione, il cui unico operatore era ubriaco e dormiva…

In realtà, la prima cosa che fece McVay una volta salvo, fu chiedere con insistenza perché la loro richiesta di aiuto non fosse stata presa in considerazione e la prima risposta che gli fu data fu che in quella zona si era sotto “silenzio radio”, cosa poi rivelatasi falsa.

Così la USS Indianapolis, il suo Comandante McVay e il suo equipaggio furono mandati allo sbaraglio.

Il mancato arrivo dell’unità del 31 luglio venne ignorato per ben due giorni dal controllo traffico di Leyte. Nel frattempo i circa 900 naufraghi che erano riusciti ad abbandonare la nave, su un totale di 1196 uomini di equipaggio, avevano iniziato la loro lotta per la sopravvivenza contro la mancanza di giubbetti di salvataggio, la disidratazione, che fece impazzire molti uomini, e gli attacchi da parte di squali. Nelle prime ore del 31 luglio vennero lanciati dei razzi di segnalazione, che furono visti dall’equipaggio di un C-54 da trasporto dell’Army Air Corps in rotta da Manila a Guam, e classificati dal comandante Richard G. Le Francis come una “battaglia navale”, ma la segnalazione venne ignorata dai suoi superiori che gli risposero di “non preoccuparsi perché era un problema della marina”.

Dopo l’abbandono della nave, molti membri dell’equipaggio sotto la guida degli ufficiali e dei sottufficiali presenti avevano organizzato in più gruppi i battellini di salvataggio e i relitti galleggianti per darsi aiuto reciproco, e molti feriti vennero raccolti. Le razioni di emergenza e le riserve d’acqua, dove presenti, vennero distribuite all’inizio in modo controllato e razionato. Gli effetti della disidratazione portarono molti uomini ad impazzire e ad allontanarsi a nuoto dai battelli, verso la morte per annegamento o per gli attacchi degli squali. Alcuni di un gruppo si immersero vaneggiando di aver trovato una cisterna di acqua potabile e contagiando altri con una isteria collettiva e molti trovarono la morte immergendosi in seguito a questa situazione.

A rendere ancora più tragica la vicenda si deve aggiungere il fatto che, nel disperato tentativo di rallentare l’affondamento dell’unità, si decise di chiudere alcuni boccaporti interni alla nave per rallentare il flusso dell’acqua da un compartimento all’altro; dato che non c’era molto tempo a disposizione non tutti i marinai fecero in tempo ad evacuare i locali che furono sigillati e vennero così sacrificati volontariamente dai loro compagni che chiusero i boccaporti.

I naufraghi vennero ignorati fin quando un velivolo Lockheed B-34 Ventura della squadriglia VPB-152 della US Navy, comandato dal tenente Wilbur C. Gwinn, in normale volo di pattugliamento alle ore 10:25 del 2 agosto non notò delle chiazze di nafta e, mentre si accingeva ad un attacco con bombe di profondità verso un presunto sottomarino, vide i superstiti. A quel punto abortì l’attacco e lanciò delle zattere gonfiabili dotate di boe sonar, che i naufraghi non furono però in grado di azionare, e trasmettendo subito alla base di Peleliu un rapporto di avvistamento. Un idrovolante PBY Catalina del VPB-23 del comandante Adrian Marks, con nominativo di chiamata Playmate 2, venne caricato di materiale di soccorso ed inviato alla ricerca dei superstiti, poiché si riteneva che i circa trenta uomini che erano stati avvistati inizialmente potessero appartenere all’equipaggio di una nave affondata. Nel frattempo le stime del comandante Gwinn a seguito di una ricerca più accurata erano salite a 150 naufraghi. A questo punto la segnalazione aveva raggiunto anche il comando avanzato delle Filippine, che chiese informazioni sulle eventuali unità disperse al centro di controllo traffico a Leyte; la risposta fu che tre navi erano in ritardo, ed una di esse era l’Indianapolis. Anche l’ammiraglio McCormick rispose che la nave non aveva raggiunto direttamente il suo task group. Pur non essendoci ancora la certezza dell’identificazione della nave, vennero ordinate ricerche a vasto raggio e sette unità navali iniziarono a pattugliare l’area.

L’idrovolante comandato da Marks sorvolò lungo il percorso il cacciatorpediniere Cecil J. Doyle, che venne allertato e si diresse autonomamente per decisione del proprio comandante verso il luogo del rilevamento; Marks, dopo aver lanciato le zattere di salvataggio, decise di ammarare per fornire rifugio al maggior numero possibile di naufraghi (alla fine saranno 56). In questo modo danneggiò irreparabilmente il velivolo, ma riuscì a far salire diverse decine di uomini nella carlinga e sulle ali, oltre che a raccogliere i battelli attorno all’aereo. Quando la USS Doyle raggiunse in piena notte il luogo del rilevamento, si fermò a distanza di sicurezza per non rischiare la vita degli uomini in mare ed accese il proprio proiettore, rendendosi identificabile e mettendosi in pericolo per poter dare un riferimento ai naufraghi, molti dei quali si resero conto in questo modo dell’arrivo dei soccorsi. Un gruppo di altre unità venne immediatamente inviato da Ulithi sul luogo, tra cui i cacciatorpediniere Ralph Talbot, veterano della battaglia di Guadalcanal, Helm e Madison, cui poi si aggiunsero il caccia di scorta USS Dufilho, i trasporti veloci USS Bassett e, il 3 agosto, la USS Ringness dalle Filippine.

La ricerca proseguì fino all’8 agosto, ma dei marinai che avevano abbandonato la nave, solo 316 su 1196 vennero recuperati; 154 dalla USS Bassett in quattro ore di ricerca e 39 dalla Ringness, 24 dalla Ralph Talbot, mentre la Dufilho dopo aver recuperato un superstite rilevò un forte contatto sonar a circa 800m e si dedicò alla caccia antisommergibile e poi alla vigilanza mentre le altre navi procedevano col recupero. Tra i superstiti vi fu anche il comandante Charles Butler Mc Vay III, figlio dell’ammiraglio McVay; quest’ultimo aveva un pessimo rapporto col figlio e non lo supportò mai, né durante le differenti fasi del processo, né dopo. Nel novembre del 1945, McVay venne sottoposto a corte marziale, unico tra i 700 comandanti di navi statunitensi affondate durante il conflitto, e giudicato colpevole di aver “messo a rischio la nave rinunciando a zigzagare”. In realtà, il comandante giapponese testimoniò dopo la guerra che la cosa non avrebbe fatto alcuna differenza. Inoltre, fatto che venne tenuto segreto fino al 1990, le intercettazioni avevano rivelato la presenza di un sottomarino operante con certezza nell’area.

McVay fu scelto come “capro espiatorio” da parte della US Navy, forse per distogliere l’opinione pubblica da tutti gli errori procedurali che erano stati commessi. Alla fine, nel 1946, l’ammiraglio Chester Nimitz annullò la sentenza di condanna e prosciolse McVay rimettendolo in servizio attivo, con la carriera però ormai finita.

In un nevoso pomeriggio del novembre 1968, dopo oltre vent’anni trascorsi a chiedersi del perché di un destino così beffardo, tormentato dalle telefonate dei parenti delle vittime del naufragio, Charles Butler McVay III fece la doccia e la barba. Stirò la sua alta uniforme e la indossò, dopo aver pulito accuratamente la pistola di ordinanza. Andò sulla veranda di casa, quella casa ormai da tempo vuota (la moglie era morta di tumore sette anni prima) e, tenendo in mano un giocattolo che gli era stato regalato da un marinaio ad inizio carriera, si mise la pistola in bocca e tirò il grilletto.

Nell’ottobre 2000, il Congresso degli Stati Uniti pose fine alla questione approvando una risoluzione secondo la quale sullo stato di servizio del capitano McVay dovesse essere riportato che “egli era prosciolto dalle accuse per la perdita della USS Indianapolis”.

 

“Io non avrei esitato a servire sotto di lui ancora una volta. Il suo trattamento da parte della Marina è stato imperdonabile e vergognoso.”

Dalla dichiarazione presentata a settembre 1999 alla audizione del Senato da Florian Stamm, sopravvissuto della USS Indianapolis.

La particella di zio – parte prima

Gregory (detective di Scotland Yard): “C’è qualcos’altro su cui vuole attirare la mia attenzione?”

 Holmes: “Sul curioso incidente del cane, quella notte”.

 Gregory: “Ma il cane non ha fatto nulla quella notte”.

 Holmes: “Questo appunto è il curioso incidente”

“Barbaglio d’argento”, Sir Arthur Conan Doyle, 1892

 

Come spesso accade quando si scrive, ben difficile risulta descrivere ciò che non è visibile agli occhi. Ma è anche vero che non tutto ciò che non è visibile agli occhi dell’uomo deve essere preso come qualcosa di inesistente.

Pensate se doveste descrivere il wifi a uno che non sa cosa sia neanche un computer. O un atomo a un lettore di questo blog (scherzo, l’ho già fatto e sono sicuro che tutti i lettori lo abbiano ben compreso nonostante le mie pessime spiegazioni).

Immagino quanto sia stato difficile per certi scienziati comprendere (o far comprendere, dipende da quale lato del tavolo fossero) la struttura atomica. Soprattutto dopo che Marx Karl Ernst Ludwig Planck (1858 – 1947), Niels Henrik David Bohr (1885 – 1962), Albert Einstein (1879 – 1955), Peter Debye (1884 – 1966) e Arnold Johannes Wilhelm Sommerfeld (1868 – 1951) ebbero le idee e le intuizioni che portarono loro e i loro discepoli ad elaborare la teoria della meccanica quantistica.

I fondatori della teoria quantistica sostanzialmente costrinsero gli scienziati a dividere il mondo in due parti: al di sopra, vi era la matematica classica con la quale era possibile descrivere i processi fisici empiricamente osservabili; sotto, vi era la matematica quantistica che descriveva un regno completamente al di fuori del determinismo fisico.

In generale, si comprese che lo stato evoluto del sistema “di sotto“ non poteva essere abbinato a nessuna descrizione classica delle proprietà visibili all’osservatore e gli scienziati avrebbero dovuto scegliere particolari proprietà del sistema quantistico, sviluppando un modello per vedere i suoi effetti sui processi fisici “di sopra”.

Ora, se è difficile per uno che lo fa di mestiere, pensate quanto lo sia per uno come me, che ha nella fisica delle particelle un interesse poco più che hobbistico! Ma chi mi conosce lo sa, quando mi intestardisco su una cosa, in genere mi piace portarla a termine.

È di pochi giorni fa la notizia della scoperta al Cern della particella Xi: inseguita da decenni, potrà aiutare a studiare la ‘colla’ che tiene unita la materia, ossia per capire una delle quattro forze fondamentali della natura: la forza forte. La scoperta, annunciata nella conferenza della Società Europea di Fisica in corso a Venezia e in via di pubblicazione sulla rivista Physical Review Letters, è avvenuta grazie all’acceleratore più grande del mondo, il Large Hadron Collider (Lhc).

Ma facciamo un passo indietro.

I greci sapevano che la materia non era divisibile all’infinito. Ipotizzarono che, dividendo un pezzo di materia in pezzi sempre più piccoli, alla fine ci fossero dei frammenti che non avrebbero potuto essere divisi e chiamarono questi frammenti atomi (da ἄτομος – àtomos -, indivisibile, unione di ἄ – a – [alfa privativo] + τέμνειν – témnein – [tagliare]).

Fu però, per vari motivi, necessario arrivare al 1800 perché la teoria atomica fosse quanto meno presa in considerazione (sporadicamente, nella storia, altri l’avevano esaltata, ma erano stati, al loro tempo, bellamente ignorati).

Cerchiamo di capire che cosa sono gli atomi e quali sono le particelle che li compongono.

Tutto ebbe inizio con gli studi sull’elettricità. Michael Faraday, fisico e chimico britannico, tentò tutti gli esperimenti con l’elettricità che gli vennero in mente, tra cui uno che consisteva nel far passare una scarica elettrica nel vuoto. Non riuscì, però, a ottenere un vuoto abbastanza spinto per i suoi scopi. Nel 1854, un maestro vetraio tedesco, Heinrich Geissler, costruì un tubo di vetro in cui erano saldati degli elettrodi metallici e in cui, con una pompa da lui stesso inventata, era possibile raggiungere un vuoto molto spinto. Quando gli sperimentatori riuscirono a ottenere scariche elettriche nel “tubo di Geissler”, notarono che si manifestava una luminescenza verde sulla parete del tubo opposta all’elettrodo negativo. Nel 1876 il fisico tedesco Eugen Goldstein giunse alla conclusione che tale luminescenza verde dovesse dipendere dall’urto sul vetro di una qualche radiazione originata nell’elettrodo negativo, che Faraday aveva denominato “catodo”.

Goldstein pertanto chiamò queste radiazioni “raggi catodici”. Si trattava di una forma di radiazione elettromagnetica? Così riteneva Goldstein, ma il fisico inglese William Crookes e alcuni altri sostennero che si trattava piuttosto di un fascio di qualche tipo di particelle. Crookes progettò alcune versioni migliorate del tubo di Geissler (chiamate poi “tubi di Crookes”), con cui poté dimostrare che i raggi venivano deflessi dall’azione di un magnete. Ciò faceva pensare che fossero costituiti di particelle elettricamente cariche.

Nel 1897, il fisico Joseph John Thomson chiarì la questione al di là di ogni dubbio, dimostrando che i raggi catodici potevano essere deviati anche dalle cariche elettriche. Cosa erano, dunque, queste “particelle” catodiche? Le uniche particelle aventi carica negativa note a quell’epoca erano gli ioni negativi. Gli esperimenti mostrarono però che le particelle che costituivano i raggi catodici non potevano essere ioni, perché subivano una così forte deviazione da parte del campo magnetico da far pensare che avessero una carica elettrica inconcepibilmente alta, oppure che fossero particelle estremamente leggere, con una massa inferiore a un millesimo di quella dell’atomo di idrogeno.

Risultò che quest’ultima interpretazione si adattava meglio ai fatti. I fisici avevano già avanzato l’ipotesi che la corrente elettrica fosse trasportata da particelle, e così queste particelle catodiche furono accettate come le costituenti ultime dell’elettricità. Vennero chiamate “elettroni”, nome suggerito nel 1891 dal fisico irlandese George Johnstone Stoney. In seguito si stabilì che l’elettrone aveva una massa pari a 1 su 1837 di quella dell’atomo di idrogeno (Thomson ricevette il premio Nobel per la fisica nel 1906 per la scoperta dell’elettrone).

La scoperta dell’elettrone fece pensare subito che esso potesse essere una particella costitutiva dell’atomo: gli atomi non erano quelle unità ultime e indivisibili della materia che i greci avevano ipotizzato.

Nel 1886 sempre Goldstein, usando un tubo a raggi catodici con un catodo perforato, aveva scoperto una nuova radiazione che passava attraverso i fori del catodo in direzione opposta ai raggi catodici, e l’aveva chiamata “Kanalstrahlen” (raggi canale). Fu proprio questa radiazione, nel 1902, a dare l’opportunità di osservare per la prima volta l’effetto Doppler-Fizeau in una sorgente luminosa terrestre. Il fisico tedesco Johannes Stark collocò uno spettroscopio in posizione tale che i raggi si dirigessero verso di esso, e rese così osservabile lo spostamento verso il violetto. Per questa ricerca gli fu assegnato il premio Nobel per la fisica nel 1919.

Dato che i raggi canale si muovono in direzione opposta a quella dei raggi catodici, che hanno carica negativa, come abbiamo visto, Thomson propose di chiamarli “raggi positivi”. Risultò che le particelle che costituivano i raggi positivi attraversavano facilmente la materia, e pertanto si suppose che il loro volume fosse molto inferiore a quello degli atomi o degli ioni ordinari. Misurando la deviazione subita da tali particelle in un campo magnetico, si giunse alla conclusione che la più piccola di esse aveva carica e massa uguali a quelle dello ione idrogeno, nell’ipotesi che quest’ultimo trasporti la più piccola quantità possibile di carica positiva; se ne dedusse che la particella che costituiva i raggi positivi fosse la particella positiva fondamentale, quindi l’opposto dell’elettrone. Rutherford la denominò ”protone” (dalla parola greca che significa «primo»).

Protone ed elettrone hanno effettivamente cariche elettriche uguali, benché di segno opposto, tuttavia la massa del protone è 1836 volte maggiore di quella dell’elettrone. A questo punto appariva verosimile che un atomo fosse composto di protoni ed elettroni, le cui cariche si controbilanciavano; sembrava anche probabile che i protoni stessero nell’interno dell’atomo, perché non possono essere facilmente staccati da quest’ultimo, com’è invece possibile per gli elettroni. Ora, però, l’interrogativo fondamentale riguardava la struttura formata da queste particelle costitutive dell’atomo.

Fu lo stesso Rutherford a trovare il bandolo della matassa. Tra il 1906 e il 1908 egli seguitò a bombardare con le particelle alfa sottili lamine di metallo (d’oro o di platino, per esempio) per studiarne gli atomi: gran parte dei proiettili attraversavano la lamina senza essere deviati (così come delle pallottole possono passare tra le foglie di un albero indisturbate), ma non tutti. Rutherford aveva collocato dietro al metallo una lastra fotografica che fungeva da bersaglio, e trovò, intorno al suo centro, un’inaspettata rosa di colpi che si erano dispersi; alcune particelle, inoltre, erano rimbalzate all’indietro! Era come se alcune pallottole non fossero semplicemente passate tra le foglie, ma fossero rimbalzate su qualcosa di più solido.

Rutherford giunse alla conclusione che esse avevano colpito qualcosa di simile a un nucleo compatto, che occupava solo una parte molto piccola dell’atomo. A quanto sembrava, la maggior parte del volume dell’atomo doveva essere occupata dagli elettroni. Le particelle alfa “sparate” contro la lamina metallica incontravano perlopiù soltanto elettroni e attraversavano questo velo di particelle leggere senza venirne deviate; ogni tanto, però, poteva accadere che una particella alfa colpisse il nucleo più denso dell’atomo, e venisse deflessa.

Il fatto che ciò accadesse molto raramente mostrava quanto dovessero essere minuscoli i nuclei atomici, visto che una particella che attraversa un foglio di metallo deve incontrare parecchie migliaia di atomi.

Era logico supporre che questo nucleo più compatto fosse fatto di protoni. Rutherford descrisse i protoni come una piccola folla addensata in un minuscolo “nucleo atomico” al centro dell’atomo. In seguito è stato dimostrato che il diametro del nucleo è poco più di 1 su 100 mila di quello dell’atomo.

Questo, dunque, è il modello fondamentale dell’atomo: un nucleo carico positivamente, che occupa uno spazio piccolissimo ma contiene quasi tutta la massa dell’atomo, circondato da una “schiuma” di elettroni che occupa quasi tutto il volume dell’atomo, ma praticamente non contribuisce alla sua massa. Per questa ricerca straordinariamente pionieristica sulla natura ultima della materia Rutherford ricevette il premio Nobel per la chimica nel 1908.

Nel 1930, due fisici tedeschi, Walther Bothe e Herbert Becker, riferirono di aver causato l’emissione da parte del nucleo di una nuova radiazione misteriosa, eccezionalmente penetrante. Tale radiazione era stata ottenuta bombardando atomi di berillio con particelle alfa. L’anno prima, Bothe aveva ideato dei metodi per usare due o più contatori congiuntamente nei “conteggi a coincidenza”. Grazie a essi si potevano individuare eventi nucleari che avvenivano in un milionesimo di secondo. Per questo e altri contributi egli ebbe il premio Nobel per la fisica nel 1954.

Due anni dopo la scoperta di Bothe e Becker, una scoperta analoga fu fatta dai fisici francesi Frédéric e Irène Joliot-Curie. (Irène era la figlia di Pierre e Marie Curie, e Joliot, sposandola, aveva aggiunto al proprio il cognome Curie.) Essi avevano usato la radiazione scoperta di recente, emessa dal berillio, per bombardare la paraffina, una sostanza simile alla cera, composta di idrogeno e carbonio. La radiazione espelleva protoni dalla paraffina. Il fisico inglese James Chadwick pensò subito che la radiazione fosse costituita di particelle. Per determinare le loro dimensioni, bombardò degli atomi di boro con tali particelle e calcolò, in base all’aumento della massa del nuovo nucleo formatosi, che la massa della particella aggiunta al boro sarebbe dovuta essere circa uguale a quella del protone. Eppure tale particella non era osservabile in una camera di Wilson. Chadwick giunse alla conclusione che la particella fosse priva di carica elettrica; infatti in tal caso non avrebbe prodotto ionizzazione e per questa ragione non si sarebbe verificata la condensazione delle goccioline di acqua.

Così Chadwick stabilì che si era in presenza di una particella completamente nuova, che aveva circa la stessa massa del protone, ma era priva di carica, ossia elettricamente neutra. Da tempo era stata presa in considerazione la possibilità che esistesse una simile particella, per la quale era stato anche proposto un nome: “neutrone”. Chadwick accettò tale nome. Per la scoperta del neutrone gli fu conferito il premio Nobel per la fisica nel 1935.

Questi tre, protoni, neutroni ed elettroni, sono gli elementi costituenti l’atomo. Ma possiamo andare più a fondo? Certamente, e la prossima volta vedremo la famiglia delle particelle e capiremo perché la scoperta della particella Xi è così importante.

Vedi Napoli e poi vivi…

Nel 1972, cosa che ho già raccontato su queste pagine, la mia famiglia si trasferì dalla natia Taranto a Pomigliano d’Arco, comune della città metropolitana di Napoli, in Campania, di circa 40.000 abitanti, famoso soprattutto per avere nel suo territorio lo stabilimento Gian Battista Vico della Fiat (allora Alfasud, dell’Alfa Romeo), lo stabilimento dell’Alenia Aermacchi (ex Aeritalia) e quello dell’Avio (ex Fiat, ora General Electric), oltre ad aver ospitato negli anni sessanta il primo aeroporto della Campania.

Ci sono mille episodi che ci hanno riguardati, soprattutto nel primo periodo, perché in quegli anni non c’era il web e il telegiornale si guardava una volta al giorno (come i cartoni animati, per noi piccoli), quindi chi si spostava dal proprio luogo di nascita ad un altro paese, ancorché abbastanza vicino (Taranto e Napoli sono più o meno a 300 km di distanza), entrava in un tessuto culturale e sociale completamente diverso dal proprio e lo shock a volte era foriero di forti imbarazzi.

Un episodio che mia madre ricorda spesso riguarda la donna delle pulizie, che quando arrivava al mattino, chiudeva tutte le tapparelle e alla domanda del perché lo facesse, rispondeva: “me metto scuorno”, con successiva telefonata di mia madre a mio padre per chiedere cosa avesse detto la tizia (la frase vuol dire “provo vergogna”).

Imparammo piano piano un sacco di vocaboli e di modi di dire e dopo 45 anni, pur avendoci io vissuto in pianta stabile solo per 12 anni, posso dire che il napoletano, dopo l’italiano, è la mia seconda lingua.

Già, lingua, e non dialetto. Addirittura l’UNESCO ha dichiarato che è una lingua da preservare e da tutelare, essendo parlata da quasi 11 milioni di persone.

La letteratura napoletana va considerata nelle diverse fasi del suo sviluppo. Napoli, capitale del Regno aragonese, produsse una fioritura letteraria che considerava il napoletano come lingua nazionale, perciò essa rispecchiava la lingua, la storia e i costumi di una nazione pienamente autonoma.

Successivamente, soprattutto quando Napoli fu nel periodo di maggiore splendore culturale, perché era capitale di un Regno illuminato e florido (periodo in cui questa capitale fu detta la Dominante a giusto diritto), sopravvisse, parallelamente alla cultura in lingua italiana e francese, una letteratura napoletana, coltivata per amor di patria da intellettuali e studiosi.

Quando Napoli diventò una provincia del Regno d’Italia (1861), il napoletano assume la vera e propria veste di dialetto, subordinato rispetto all’italiano ma, date le condizioni di generale analfabetismo dell’epoca, unica lingua utilizzata dal popolo: chi voleva perciò rivolgersi alla gente comune o esprimerne i sentimenti e le abitudini doveva usare il dialetto. Da allora fu relegata al rango di produzione dialettale e locale anche la precedente produzione in lingua napoletana.

Occorre ancora tenere presente che nella letteratura napoletana assunsero particolare consistenza i due filoni, che in italiano vengono unificati nel termine “popolare” ma giustamente sono in inglese sdoppiati in folk e popular. Per intenderci, è folk quello che concerne la lingua e i costumi di un popolo; è popolare quello che interessa tutto il popolo. Per esempio, ’O sole mio è una canzone popolare-popular, mentre Cicerenella è una canzone popolare-folk. Con questa premessa si può comprendere come mai il popular del dialetto napoletano trovò sin dal ’600 grandi espressioni nel campo musicale, che poi conobbero l’acme nella fioritura di fine ’800 con i versi di Di Giacomo e Russo, che si rifecero (ed in un certo senso lo fecero sopravvivere) al folk.

Ma all’inizio del ’900 si ebbe una grande anomalia, perché in tutto il mondo venivano cantate le canzoni napoletane, ma gli autori (Bovio, E.A.Mario, autore della Leggenda del Piave e di moltissime canzoni di successo) erano misconosciuti al mondo letterario. Eppure i sentimenti di quei poeti trovavano espressione in diverse lingue, perché per le canzoni di maggiore successo gli editori allegavano, affianco al testo napoletano, la traduzione in lingua straniera e talvolta anche quella in lingua italiana. Era un poco la tecnica che fu usata in cinematografia, quando all’estero gli italiani mandavano film già doppiati nella lingua delle nazioni che li dovevano ricevere mentre i film stranieri venivano doppiati a Roma. Vi è solo da aggiungere che le traduzioni effettuate a Napoli erano pedisseque, senza alcun tentativo di rendere in lingua estera la poesia che i versi originali esprimevano, limitandosi ad una traduzione elementare del concetto espresso.

I versi delle canzoni attuali (stando la diffusa conoscenza delle lingue e di qualche lingua in particolare) vengono eseguiti in lingua originale, anche se non mancano traduzioni che però, quando vengono effettuate, gareggiano con gli originali. In questo periodo il folk diventò addirittura un sottoprodotto del dialetto ed evitato, come volgare, se non indecente. Fu riscoperto solo nella seconda metà del secolo XX ad opera soprattutto di De Simone, che creò ad hoc una compagnia di canto popolare.

Salvatore di Giacomo resta, su tutti, il vero cantore dell’anima napoletana, da lui a lungo cantata e descritta in liriche, drammi e novelle che poi rimasero come perpetue oleografie di quel mondo anche molto tempo dopo che quel mondo scomparve. Nella corrente verista egli si riconobbe: fu amico del Verga, si occupò della storia dei vicoli malfamati di Napoli, della malavita, degli ospedali, delle bettole e delle prostitute. Amò definirsi: “verista sentimentale”. Nella sua produzione è tuttavia abbastanza facile riconoscere le tracce della poesia latina, greca e tedesca, che egli ben conosceva ed amava.

Com’è noto, Napoli fu fondata dagli antichi greci, nel VI secolo A.C. E quella greca è una matrice che si ritrova ancora oggi in molti vocaboli. Pazziare, ad esempio, che in Italiano vuol dire giocare, deriva dal greco “παίζουν, paìzun (giocare)”. E pacchero, che vuol dire schiaffo, deriva dal greco “πάσα χείρ, pasa cheir (a tutta mano)”. Profonda è stata poi l’influenza del latino (nel 326 a.C la città diventò una colonia dell’impero Romano), la lingua parlata dai napoletani fino al 1200 circa. Dal termine latino “intras acta”, ad esempio, deriva la parola napoletana intrasatta (improvviso). Ed è proprio nel XIII secolo che il dialetto napoletano (così come anche gli altri della penisola italica) comincia a prendere forma. Le successive dominazioni hanno poi fatto il resto. Ajére, che in italiano vuol dire ieri, deriva dallo spagnolo “ayer”. Canzo, che vuol dire tempo (a Napoli si dice “damme ‘o canzo”, cioè dammi il tempo), deriva dal francese “chance”. La parola tamarro (zotico), deriva invece dall’arabo “al-tamar” (mercante di datteri). Di origine inglese è poi nippolo (pallina di lana): deriva da “nipple”.

Nelle sue svariate varianti, il napoletano viene parlato in una buona parte del sud Italia: Campania soprattutto, ma anche Abruzzo, Lazio meridionale, Molise e nelle parti alte della Puglia e della Calabria. Ma quante persone parlano il napoletano? La stima, come accennavo, è di una popolazione di circa 11 milioni di persone. Questa cifra, che già colloca il napoletano al posto numero 77 delle lingue più parlate del mondo (prima di idiomi come lo Svedese, il Bulgaro e il Ceco), non tiene però conto degli emigranti sparsi nel mondo: Canada, Stati Uniti, Brasile, Argentina, Belgio, Francia e Portogallo. Molti termini napoletani sono poi divenuti universali, conosciuti in ogni angolo della terra abitato; e questo grazie, soprattutto, alla canzone classica napoletana.

Le regole del napoletano riguardano tutti quegli aspetti che normalmente caratterizzano un qualsivoglia idioma: la pronuncia, l’ortografia, le vocali, le consonanti, sostantivi, articoli, verbi, etc. Sarebbe ovviamente impossibile sviscerarle tutte. Ci vorrebbe un intero corso.

Una regola molto comune e semplice da ricordare è però quella della scomparsa delle vocali alla fine delle parole: molte parole in napoletano si formano infatti eliminando dalla corrispondente parola italiana l’ultima vocale; divertentissima è la scena del ristorante nel famoso film Benvenuti al sud, quella dove Mattia (Alessandro Siani) dà lezioni di napoletano al suo capo ufficio Milanese (Claudio Bisio).

Ovviamente non è sempre così semplice, anzi (così come non è che semplicemente aggiungendo una “s” finale ad una parola italiana si forma l’equivalente spagnola). Molti termini napoletani, infatti, non hanno nemmeno un corrispettivo italiano, essendo esse legate profondamente alla cultura e la storia del posto: come la parola friarielli. I friarielli sono le infiorescenze appena sviluppate della cima di rapa che i napoletani, per necessità, impararono a mangiare fritte nell’olio. A proposito, oggi a Napoli i friarielli si cucinano soprattutto con la salsiccia di maiale: anzi è quasi un obbligo; provate a chiedere a un napoletano come sono “sasicce e friarielli”, vi dirà che è uno dei piatti più buoni dell’universo.

E poi c’è il gesto. Il gesto nel vernacolo partenopeo diventa un completamento della parola, spesso addirittura indispensabile per esprimere appieno il concetto voluto; secondo uno studio fatto a livello mondiale dell’antropologo inglese Desmond John Morris (n. 1928), il popolo napoletano è quello che possiede il repertorio più ricco e complesso di gesti nella comunicazione non verbale.

Il napoletano è una lingua che ha le sue regole grammaticali fisse anche in altre locuzioni che in italiano non esistono. Vediamo qualche esempio.

Innanzitutto bisogna sapere che in napoletano ci sono delle parole che devono assolutamente essere ripetute due volte altrimenti non si riesce a dare il giusto senso alla frase.

  • Lentamente = chian’ chian’;
  • adagio (che è molto simile) = cuonc’ cuonc’;
  • Completamente = san’ san’;
  • Meticolosamente = pil’ pil’;
  • Disteso = luong’ luong’;
  • All’ultimo momento= ‘ngann’ ‘ngann’;
  • Di nascosto= aumm’ aumm’.

Poi ci sono gli avverbi di tempo:

  • Adesso= mo’; In questo momento = mo’ mo’;
  • Allora= tann’; In quel momento = tann’ tann’.

Poi ci sono le iniziali di parole che cambiano (le parole inizianti per “p” diventano “ch”):

  • Piove= chiove;
  • Piangere= chiagnere;
  • Piombo= chiumm’.

Le parole inizianti con la “g” perdono la g:

  • Giorno = iuorn’;
  • Gatta = iatt’;
  • Genero = ienn’r.

Ma la difficoltà maggiore riguarda le parole inizianti per “s” che in napoletano prendono la n apostrofata:

  • Sporco = ‘nzvat’;
  • Sposato = ‘nzurat’;
  • Sopra = ‘ngopp’;
  • Sugna = ‘nzogn’.

Poi c’è da dire che il napoletano ha una capacità di sintesi eccezionale, a volte una sola parola riesce a sintetizzare concetti che in italiano sono lunghissimi:

La lettera “e” da sola significa “devi”:

  • La devi smettere = L’e a fernì.

La lettera “i” da sola significa “andare”:

  • Ce ne vogliamo andare = Ce ne vulimm’ ì.

Oppure ad esempio:

Scoprire frequentazioni comuni dopo un lungo periodo di tempo = Ascì a parient’;

Cercare di convincere una persona a fare qualcosa che altrimenti non avrebbe mai fatto = Abbabbià;

Congegno elettronico mal funzionante = Chiuov’;

Parlare direttamente di una persona della quale non si vuole dire esplicitamente il nome = L’amico Friz.

Ma la difficoltà maggiore la riscontriamo negli aggettivi possessivi mio, tuo e suo: in napoletano si mette solo l’iniziale alla fine della parola, come in:

  • Mio padre = pat’m
  • Tuo padre = pat’t
  • Ma attenzione! Suo padre non è pat’s ma è ‘o pat’ e chill’… è irregolare!

Ma c’è una cosa del napoletano che esiste solo in napoletano. Il verbo ecco.

In italiano la parola “ecco” è un avverbio presentativo o un’interiezione. Gli avverbi presentativi sono avverbi usati per presentare, indicare, mostrare, annunciare un evento. L’unico avverbio di questo tipo usato nell’italiano contemporaneo è ecco. In genere serve a richiamare l’attenzione su cosa che contemporaneamente si addita o si mostra, o a sottolineare un fatto, un avvenimento, oppure a indicare persona o cosa che appaia improvvisamente.

Ma in napoletano no, è molto più di questo. Vediamolo.

 La parola “ecco” si coniuga come un verbo a seconda della posizione della persona, se sta vicina o lontana, o a seconda se è singolare o plurale:

Oiccann’ = eccolo qua;

Oilloc’ = eccolo là;

Oillann’ = eccolo laggiù;

‘E biccann’ = eccoli qua;

‘E billoc’ = eccoli là;

‘E billann’ = eccoli laggiù.

E quando ci incontreremo, non vi preoccupate se vi accolgo con un “Oillòc!”, è perchè sono contento di vedervi!

Un nodo gordiano

Gordio era un contadino e viveva in Frigia. La Frigia (in greco: Φρυγία) era una regione storica dell’Anatolia centrale, abitata dai Frigi, che si stabilirono nella zona nel 1200 – 1100 a.C. circa, estendendosi ad oriente fino al fiume Halys, dove adesso si trova Ankara, e a occidente alle coste del Mare Egeo.

Quando un’aquila si posò sul suo aratro, Gordio interpretò il fatto come il segno che un giorno sarebbe diventato re. L’oracolo di Sabazio confermò il suo destino futuro: infatti i Frigi, trovandosi senza sovrano, consultarono l’oracolo ed ebbero come responso che avrebbero dovuto eleggere come re il primo uomo che fosse salito al tempio con un carro. Fu così che apparve il fattore Gordio, sul suo carretto guidato da buoi.

Gordio fondò l’omonima città di Gordio, che divenne la capitale della Frigia. Il suo carro venne conservato nell’acropoli della città. Il suo giogo venne assicurato con un intricatissimo nodo detto da allora “nodo di Gordio”, o “nodo gordiano”. La leggenda voleva che chiunque fosse riuscito a sciogliere quel nodo sarebbe diventato signore dell’Asia ovvero dell’allora territorio dell’Anatolia.

Nel 333 a.C. successe però un fatto. Plutarco racconta: “Presa Gordio… vide quel celebrato cocchio legato da corteccia di corniolo e venne a conoscenza di quella tradizione divulgata tra i barbari secondo la quale chi ne avesse sciolto il nodo sarebbe diventato il re del mondo. La maggior parte degli storici afferma che Alessandro, non essendo in grado di sciogliere quel nodo perché i capi delle corde erano nascosti e tra loro aggrovigliati in più giri, lo tagliò con la spada”

L’Alessandro raccontato da Plutarco era proprio lui, il futuro dominatore del mondo allora conosciuto, Alessandro Magno (c’è chi dice che io abbia chiamato mio figlio Alessandro per lo stesso motivo…).

Da allora l’espressione “nodo gordiano” designa una difficoltà insormontabile, che è risolvibile solo con un’estrema risolutezza (come appunto fece Alessandro, che invece di slacciarlo lo spezzò con un fendente).

E a proposito di argomenti difficili, oggi mi voglio avventurare nel mondo delle droghe, in particolare delle cosiddette “droghe leggere”.

Droga leggera è una locuzione di uso comune per indicare sostanze stupefacenti incapaci di creare dipendenza nel senso medico del termine, e le cui proprietà psicotrope sono piuttosto trascurabili. In particolare, con questa locuzione si identificano le piante del genere Cannabis (canapa) e le sostanze psicotrope da esse ricavabili, principalmente marijuana e hashish (dalla lavorazione delle infiorescenze femminili), ma a volte il termine può venire esteso agli psichedelici come funghi del genere psylocibe, DMT, LSD, i quali come la canapa non danno dipendenza fisica e non hanno una elevata tossicità.

Ma sarà vero? Vediamo di affrontare la questione come sempre, dall’inizio.

C’è in genere molta confusione e scarsa conoscenza scientifica, a livello di opinione pubblica, in tema di “droghe”; già una dicitura del genere è da ritenersi sostanzialmente priva di fondamento, in quanto accomunerebbe tutte le sostanze dotate di un qualche effetto psicotropo o neuronale e in grado d’indurre “dipendenza” in un unico insieme, per quanto gli elementi che lo compongono non abbiano alcuna reale attinenza botanica, chimica o scientifica fra loro.

Lo scrittore francese Jaques Derrida ad esempio, autore di “Rhétorique de la drogue” del 1986, nel discutere il concetto di droga affermò: “Non si può non concludere che il concetto di droga sia un concetto senza base scientifica, istituito sulla base di valutazioni politiche o morali”. Dipendenza e droga sono in tal senso due concetti che vengono spesso demonizzati psicologicamente dall’opinione pubblica, suscitano moti d’animo e opinioni in genere preconcette senza che si possieda una reale conoscenza dei fenomeni, delle dinamiche e delle sostanze coinvolte.

Questo è un preludio fondamentale per capire come la dicotomia tra “droghe leggere e pesanti” sia solo un semplicistico riferimento, vagamente basato sull’oggettiva differenza quanto ad effetti, induzione di dipendenza fisica ed incidenza sociale dei derivati della pianta di Cannabis rispetto ai derivati di piante come il papavero o la coca; semplicistico riferimento perché ad esempio, in questo senso, bisognerebbe senza indugio considerare in base agli stessi parametri di pesantezza degli effetti, dipendenza fisica ed incidenza sociale anche l’alcool come una “droga pesante”, percepita diversamente dalle succitate sostanze solo in virtù del proprio status legale che la vede tollerata in tutto il mondo occidentale. L’espressione “droghe pesanti e droghe leggere” è da ritenersi dunque un termine principalmente colloquiale per indicare, rispettivamente, sostanze psicoattive particolarmente dannose e sostanze che sono ritenute non induttrici di dipendenza (o induttrici di dipendenza ridotta) e meno dannose di quelle pesanti. L’espressione “droghe leggere” è considerata controversa dai critici della medesima perché implica che la sostanza causi danni nulli o insignificanti.

Ma vediamo se è proprio così.

La marijuana, ad esempio, è una delle droghe ricreative più usate al mondo e si ottiene essiccando le infiorescenze resinose delle piante femminili di cannabis. Esistono diverse varietà di cannabis che vengono usate da millenni in tutto il mondo e per diversi scopi: ricreativo, medicinale, cerimoniale e religioso, come per i rastafariani, o meditativo come per i sadhu indiani o per i monaci buddisti del Nepal.

Ma come funziona esattamente la marijuana?

Il modo più comune di consumare la marijuana è fumarla, che è anche il metodo più veloce per far entrare il principio attivo, il thc, in circolo nel nostro sangue e da lì al cervello. In alternativa la marijuana può essere mangiata ricevendone un effetto più fisico, che dura decisamente più a lungo.

La pianta della cannabis contiene centinaia di sostanze chimiche ma la più importante e nota tra queste è il delta-9-tetraidrocannabinolo o semplicemente “thc”, il principio attivo responsabile degli effetti della marijuana sul nostro organismo.

Quando la marijuana viene fumata il thc contenuto nei fiori e nella resina viene vaporizzato e inalato entrando nei nostri polmoni che sono foderati di milioni di minuscole spugnette assorbi-aria chiamate comunemente alveoli: questi normalmente servono ad assorbire l’ossigeno quando inspiriamo e a rilasciare anidride carbonica quando espiriamo. Ma quando fumiamo insieme all’ossigeno assorbono anche il thc facendolo entrare direttamente nel nostro flusso sanguigno; in questo modo in pochi secondi il thc si fa strada attraverso i vasi sanguigni fino al cervello.

Il cervello umano è pieno di miliardi di cellule che elaborano le informazioni chiamate neuroni che comunicano tra di loro attraverso le sinapsi.

Una sinapsi è come un corridoio dove si aprono due porte che danno su due neuroni diversi: attraverso il corridoio, i due neuroni si scambiano informazioni sotto forma di impulsi elettrici o di molecole chimiche, ovvero tramite i neurotrasmettitori.

Il nostro cervello usa diversi tipi di neurotrasmettitori: ogni tipo di neurotrasmettitore è responsabile dell’attivazione di specifici recettori dei neuroni, che a loro volta attivano il neurone stesso causando specifiche reazioni nell’organismo umano; è da qui che entra in gioco il thc della marijuana, la cui molecola, essendo molto simile ai neurotrasmettitori endocannabinoidi riesce a legarsi ai loro recettori e attiva specifici neuroni causando in questo modo i tipici effetti della marijuana sulla nostra mente e sul nostro corpo.

Sono quattro le parti del cervello che hanno la massima densità di recettori cannabinoidi:

  • i gangli della base, che controllano i movimenti involontari e la coordinazione motoria;
  • l’ippocampo, che è responsabile della memoria a breve termine: ecco spiegato perché quando si assume thc si ha difficoltà a ricordare gli eventi recenti o a focalizzarsi;
  • il cervelletto, che controlla equilibrio e coordinamento motorio;
  • l’ipotalamo, che svolge un ruolo fondamentale nella regolazione dell’appetito e quindi di quanto cibo assumiamo.

Chi usa marijuana descrive l’effetto come una sensazione di spensieratezza e serenità; le pupille possono dilatarsi rendendo i colori più vividi e con il passare del tempo potrebbe sopraggiungere una forte sensazione di euforia o, in alcuni casi, un senso di panico diffuso. La marijuana inoltre è un forte vasodilatatore, motivo per cui viene utilizzata come medicinale dai malati di glaucoma, che beneficiano moltissimo della riduzione della pressione intraoculare; infine quando il thc si lega con i recettori cannabinoidi nell’ipotalamo la nostra capacità di controllare la fame viene compromessa e così abbiamo bisogno di cibo, diventando così vittime della cosiddetta fame chimica.

Ricordiamo infine che gli effetti dell’assunzione di thc da marijuana o hashish tramite fumo, vaporizzazione o ingestione sono sempre temporali e svaniranno nel peggiore dei casi dopo qualche ora: ma attenzione perché studi riconosciuti dimostrano che il consumo cronico di marijuana può favorire disturbi d’ansia e paranoia nei soggetti predisposti e negli adolescenti può portare a una diminuzione fino a 8 punti del quoziente intellettivo in età adulta.

Come l’oppio e l’eroina, le origini della marijuana sono in Asia, da dove è stata poi esportata in tutto il mondo, diffondendosi negli Stati Uniti durante il proibizionismo, quando non c’era modo di bere un goccio d’alcol e la voglia di riunirsi segretamente, ballare e andare fuori di testa era ai massimi livelli.

Negli anni ’30, però, la marijuana in America era associata al diavolo, alla discesa negli inferi, all’horror in generale. Un celebre film del tempo, “Marihuana, the devil’s weed”, arrivato in Italia col titolo “Marijuana, l’erbaccia diabolica”, già spiegava molto della strana associazione. Diretto da Dwain Esper e scritto dalla moglie, era un exploitation movie, genere che andava forte in quegli anni, tutto sesso e violenza, senza grossa cura per la parte estetica e spesso con un messaggio da veicolare. Tipo, in questo caso, l’erba fa male. Nella pellicola, Burma è una ragazza che, dopo aver fumato, si ritrova in una serie di guai che nemmeno ad andarseli a cercare la notte. Gli slogan parlavano chiaro: l’erba con le radici all’inferno, vergogna, orrore e disperazione.

Ma perché tanto accanimento? La marijuana veniva usata dal 7000 Avanti Cristo ed era riconosciuta come erba medicinale e antidolorifico da Egizi, Cinesi, Greci e Romani, anche se nei libri di storia o nei film in costume difficilmente si vede un Centurione farsi un cannone dopo un crampo.

Se si era arrivati a proibire l’alcol, immaginate quale potesse essere la preoccupazione dell’F.B.I. per la marijuana: Harry J. Ansliger, ispettore del Bureau of Prohibition, fece creare manifesti, libri e film talmente estremi e spaventosi, nella sua mente, da impaurire i giovani e farli desistere dal divertirsi. L’importante era impaurire suggerendo situazioni estreme, anche se poco verosimili.

Oggi, con la legalizzazione delle droghe leggere in Colorado, sono diminuiti i reati e sono diminuite le tasse. Infatti nel 2012 il Colorado ha fatto una scelta rivoluzionaria nel panorama legale degli Stati Uniti. Nel novembre di quell’anno infatti è stato approvato l’emendamento 64, che ha segnato (insieme alla contemporanea “Initiative 502” dello stato di Washington) il primo esempio di legalizzazione del consumo di cannabis sul territorio americano. Da quel momento, il Colorado si è trasformato in una sorta di laboratorio permanente, guardato da vicino sia dai promotori che dai nemici dell’approccio soft nella guerra alle droghe. Negli ultimi decenni d’altronde la cannabis si è trasformata in un tema caldo negli Stati Uniti, dove tra legalizzazioni, depenalizzazioni e via libera alla marijuana terapeutica, solamente 22 dei 50 stati che compongono il paese continuano ad applicare la tolleranza zero.

Le preoccupazioni maggiori come diciamo sono riservate solitamente per gli adolescenti, che secondo molti studi sono la categoria più a rischio in caso di abuso di cannabis. La causa sarebbe di un cervello ancora in formazione, di cui la sostanza può modificare strutture e funzioni, favorendo lo sviluppo di patologie mentali nell’età adulta. In questo senso, i dati che arrivano dal Colorado sono consolanti: nel 2009, prima della legalizzazione, il 25% degli adolescenti dello stato aveva fumato marijuana almeno una volta nel mese precedente alla rilevazione, mentre nel 2015 la percentuale si attesta intorno al 21%, poco al di sotto della media statunitense. La vendita della marijuana a scopo ricreativo in Colorado è iniziata nel 2014, e quindi i nuovi dati riflettono la situazione dopo due interi anni di libera vendita.

Personalmente, non sono favorevole all’uso di sostanze stupefacenti, ma, indipendentemente dal mio rapporto con qualunque tipo di sostanza, dal mio stile di vita, dalle mie passioni e dalle mie repulsioni, ritengo che le istituzioni dovrebbero affrontare meglio il problema. Spesso, in Italia, le discussioni sui temi più delicati sono travolte da un furore ideologico che oscura i fatti e impedisce un dibattito sereno. E non è possibile che una parte dei cittadini, che la parte maggiore delle istituzioni religiose, con il peso che la Chiesa Cattolica ha in Italia, e che la politica tutta, tranne pochissime eccezioni, si rifiutino di affrontare seriamente e con responsabilità questo tema.

So che la legalizzazione delle droghe è un tema complicato, difficile da proporre e da affrontare. So che pone molti problemi soprattutto di carattere morale, ma un Paese come il nostro, che ha le mafie tra le più potenti del mondo, non può eluderlo.

E, soprattutto, ci sarà un “Alessandro Magno” che avrà l’audacia di spezzare questo nodo?