Il tutto per celebrare i 40 anni della canzone (uscita nel 1969 ma composta nel 1968), i 45 anni del NASA’s Deep Space Network e i 50 anni della stessa NASA.
Il brano dei Beatles, principalmente opera di John Lennon, viaggerà alla velocità della luce per 431 anni percorrendo 2.5 quadrilioni di miglia fino a raggiungere Polaris, la stella del nord.
Una ricerca di cui è stata data notizia su Nature #451 del 10 Gennaio (abstract qui; per l’intero testo è necessaria la registrazione) rivela che gli umani e i pipistrelli sono gli unici mammiferi a distinguere mediamente differenze di altezza così sottili (più di 10 per ottava; lo so che i musicisti ne sentono ben di più: qui si dice che anche un umanoide qualsiasi è in grado di distinguere un Do da un Re).
I gatti percepiscono solo differenze pari a circa una ottava (circa), i topi arrivano a 1/3 di ottava, i macachi arrivano al massimo a mezza ottava. In un comunicato stampa, uno degli autori, Itzhak Fried, afferma
It is indeed a mystery why such [frequency] in humans came to be. Why did we do this? Such selectivity is not needed for speech comprehension, but it may have a role in musical skill.
Che possa avere un ruolo nella abilità musicale mi sembra lapalissiano. La vera questione è perché abbiamo sviluppato questa capacità. Deriva forse dallo sviluppo del linguaggio oppure si è formata per qualche altra ragione e tutto ciò ha favorito lo sviluppo di un linguaggio complesso?
A chi è interessato a queste problematiche e legge bene l’inglese segnalo l’interessantissimo blog Babel’s Dawn.
Ecco una mappa 3d del cervello in forma di isola, con tanto di nomi geografici adatti. Si può scaricare da qui.
________________________
The above map’s original data was created from a reference photo of a real human brain which was used to build the 3d terrain. This digital elevation model was then used to create contour line data, relief shading and to plan where the roads and features should be placed for map compilation. Real New Zealand public domain data was then added for the surrounding islands. Original site.
Su YouTube si trovano anche altri video che permettono di seguire una partitura di ascolto insieme alla musica.
Eccone uno di Metastaseis (Metastasis), un brano per orchestra composto nel 1954 da Xenakis, in cui gli eventi sonori erano definiti quasi completamente su base statistica.
In effetti, il processo compositivo di Xenakis è strettamente collegato alla matematica. Per risolvere problemi quali la distribuzione dei suoni e delle figure, la densità, la durata, le note stesse, Xenakis utilizza molto spesso distribuzioni statistiche, il calcolo combinatorio, ma anche le leggi fisiche e la logica simbolica.
Il suo approccio è conseguente alla sua critica al serialismo integrale espressa nel suo scritto “La crise de la musique serielle”, che si può sintetizzare come segue:
L’applicazione della serie a tutti i parametri compositivi al fine di ottenere un controllo totale sulla composizione produce invece una incontrollabile complessità che “impedisce all’ascoltatore di seguire l’intreccio delle linee e ha come effetto macroscopico una dispersione non calcolata e imprevedibile dei suoni sull’intera estensione dello spettro sonoro”.
Ne consegue una evidente contraddizione fra l’intento compositivo che vorrebbe essere totalmente deterministico e l’effetto sonoro.
Dato che il serialismo permette di trasporre la serie su ognuna delle 12 note e permette anche di utilizzare l’inversione, il retrogrado e l’inversione del retrogrado con relative trasposizioni, allora esso non è che un caso particolare del calcolo combinatorio [cioè la branca della matematica che studia i modi per raggruppare e/o ordinare secondo date regole gli elementi di un insieme finito di oggetti – da wikipedia].
Di conseguenza, il calcolo combinatorio costituisce una generalizzazione del metodo seriale e quindi un suo superamento.
Da queste due considerazioni e dalla preparazione di carattere fisico e matematico, oltre che musicale, di Xenakis nasce un approccio compositivo totalmente nuovo. Se la contraddizione del serialismo è dovuta alla sua complessità che genera una dispersione non calcolata dei suoni, si tratta dunque di trovare nuovi criteri di controllo. La linea deduttiva di Xenakis si può riassumere nei seguenti passi:
il serialismo integrale, adottando i meccanismi della trasposizione, inversione e retrogrado è approdato quasi spontaneamente al calcolo combinatorio
le scienze statistiche, di cui il calcolo combinatorio fa parte, hanno messo a punto strumenti matematici e concettuali capaci di studiare e definire fenomeni complessi
il calcolo delle probabilità, concettualmente e storicamente legato al calcolo combinatorio e sua potente generalizzazione, si presenta come lo strumento più idoneo per determinare l’effetto macroscopico generato da una polifonia lineare di alta complessità
la serie viene quindi sostituita con il concetto di insieme sonoro organizzato mediante distribuzioni statistiche che permettono di controllare le varie caratteristiche sonore quali altezze, densità, durate, timbro, etc.
il livello di controllo [quello su cui lavora il compositore] si innalza dal singolo suono all’insieme sonoro. L’aspetto microscopico della composizione può essere anche disordinato, ma a livello macroscopico si ha una chiara percezione di una figura sonora.
Chiariamo questi postulati (soprattutto il 5).
Se io faccio fare a 40 archi una lunga nota scelta a caso ma con distribuzione uniforme (tutte le note hanno la stessa probabilità) fra il DO3 e il DO4, la percezione sarà quella di un cluster cromatico di 8va.
Altro esempio: se n strumenti suonano note a caso con altezze distribuite in modo uniforme fra il DO3 e il FA3 e durate scelte nello stesso modo fra semicroma e croma, la percezione sarà quella di una fascia con movimento interno la cui velocità dipende dalla durata media e il cui timbro dipende dalla distribuzione strumentale.
Il compito del compositore non è più di scegliere le singole note, compito lasciato alla distribuzione statistica, ma quello di determinare la forma dell’insieme stabilendo quali distribuzioni statistiche governano i vari parametri sonori e i movimenti dell’insieme attraverso il controllo dei parametri delle suddette distribuzioni.
Notate che l’impostazione concettuale di Xenakis non è dissimile da quella di Stockhausen, quando crea il concetto di gruppo e sposta la sua attenzione dal singolo suono al gruppo ed è analoga a quella di Ligeti quando compone per fascie introducendo l’idea di micro-polifonia.
La posizione di Xenakis, determinata anche dalle sue conoscenze matematiche, è, però, estrema. Lui abbandona completamente il livello del singolo evento sonoro, per porsi a un livello più alto, quello degli insiemi di suoni. Se consideriamo che anche quello che il compositore strumentale definisce “suono singolo” è, in realtà, un agglomerato di suoni semplici (armonici e/o parziali sinusoidali), questa posizione è ampiamente giustificata. I possibili livelli di controllo dell’evento sonoro sono molti: dal “comporre il suono” dell’elettronica in sintesi additiva, fino all’organizzazione dell’evento privo di una precisa determinazione del risultato sonoro (Fluxus). Spetta al compositore decidere dove porsi.
Notate, infine, che questa musica di Xenakis è statistica, non casuale. La casualità c’è, ma si annulla nella molteplicità degli eventi.
Ecco il video. Volendo potete anche andare a vederlo su YouTube che vi permette anche di ingrandirlo a tutto schermo.
E per darvi modo di ascoltarli meglio, ecco un isolamento dei famosi glissandi le cui trame riproducono la struttura delle superfici del padiglione Philips progettato da Le Corbusier con l’assistenza di Xenakis nel 1958 per l’esecuzione del Poème Électronique di Edgar Varèse (immagini qui e qui).
Tanto per fare un confronto al volo, ecco il procedimento di cui al post precedente con la serie di partenza basata su π, φ ed e.
Le altezze sono comprese fra C3 e C5 mentre le durate vanno da semicroma a minima.
La trasposizione diretta della matematica in musica, di solito produce dei risultati abbastanza banali. C’è però qualche eccezione. Una è questa.
Si calcolano le prime n (poniamo 100) cifre di un numero trascendente, uno di quei numeri non riducibili a frazione che hanno infinite cifre dopo la virgola, come π (pi-greco), φ (phi, la sezione aurea) o e (la base dei logaritmi naturali).
In questo caso, usiamo la sezione aurea φ (phi). Il risultato è
1.61803398874989484820458683436563811772030917980576
286213544862270526046281890244970720720418939113748
Si prendono le cifre così come sono, senza badare al punto decimale, cioè
1,6,1,8,0,3,3,9,8,8,7,4,9,8,9,4,8,4,8,2,0,4,5,8,6,8,3,4,3,6,5, … etc.
Questa sarà la nostra base per produrre altezze e durate. L’idea è che la generazione delle cifre decimali in questi numeri non è del tutto casuale. Infatti le cifre non hanno la stessa distribuzione, ma soprattutto la serie è ricca di ripetizioni, configurazioni ripetute, etc.
Per ottenere le altezze, trasformiamo le nostre cifre in note con una codifica. Poniamo 1 = LA basso del piano e saliamo per semitoni. Quindi il DO più basso sarà 4 e poi, per ottave, gli altri DO saranno 16, 28, 40, 52, 64, 76, 88.
Ora, riscaliamo l’intera serie, che va da 0 a 9, in modo che il minimo (0) corrisponda a 40 (C3) e il massimo (9) a 64 (C5). Otteniamo seguente serie di note:
42,56,42,61,40,48,48,64,61,61,58,50,64,61,64,50,61,50,61,45,40, … etc
In generale, risulta che
0 = 40 = C3
1 = 42 = D3
2 = 45 = F3
3 = 48 = G#3
4 = 50 = A#3
5 = 53 = C#4
6 = 56 = E4
7 = 58 = F#4
8 = 61 = A4
9 = 64 = C5
Naturalmente avremmo potuto usare anche un altro intervallo, più o meno ampio di 2 ottave ottenendo risultati diversi.
Ora piazziamo le durate. Decidiamo che
0 = semicroma
1 = croma
2 = semiminima
3 = minima
e riscaliamo la serie numerica come sopra, ma restringendola fra 0 e 3 senza decimali. Ne consegue che
0, 1, 2 = 0 = semicroma
3, 4, 5 = 1 = croma
6, 7, 8 = 2 = semiminima
9 = 3 = minima
ottenendo la serie seguente: 0,2,0,2,0,1,1,3,2,2,2,1,3,2,3,1,2,1,2, … etc.
In questo esempio usiamo sempre durate canoniche (non irregolari) per non avere difficoltà di scrittura. Niente però impedisce di usare anche durate irregolari, affrontando qualche problema di scrittura. P.es, usando anche la durata di una croma terzinata, potreste trovarvi una successione come: semiminima – croma terzinata – semiminima e voglio vedere come lo scrivete. Oddio, in tanti brani contemporanei si fa anche di peggio, ma in questo esempio stiamo sul semplice.
Bene. A questo punto abbiamo una serie di altezze e una di durate di pari lunghezza. Decidiamo un metronomo e suoniamo. Ecco il risultato finale. Simpatico, nervosetto, un po’ alla Xenakis anche se meno complesso.
Al lettore attento non sarà sfuggita una particolarità. Usando la stessa serie di partenza per altezze e durate, la durata aumenta via via che le altezze si alzano. Per evitarlo, basta retrogradare una delle due serie risultanti. In questo esempio abbiamo retrogradato le durate.
Cambiando l’estensione, poi i risultati sono diversi. Qui le altezze sono riscalate fra 4 e 64 usando buona parte dell’estensione del piano e rendendolo praticamente insuonabile da un umano a questa velocità.
Ecco infine una sovrapposizione di quest’ultimo frammento (1-64) e del precedente (40-64 con durate in retrogrado)
Nel suo libro sui sistemi caotici (Caos, la nascita di una nuova scienza – 1987, Rizzoli), James Gleick spiega che la forma delle nuvole è considerata dagli scienziati un problema profondo perché è un fenomeno caotico, imprevedibile nei particolari, ma governato da regole coerenti, ricorrenti e prevedibili nel loro insieme.
A quanto pare, se ne occupò anche Goethe e non dal punto di vista poetico, ma da quello scientifico: La forma delle nuvole e altri saggi di meteorologia – J. Wolfgang Goethe, Archinto, 2000.
Non ci si stupisce, quindi, che siano nati anche dei gruppi di appassionati osservatori delle medesime, in grado di mostrarci incredibili immagini come questa, immortalata presso Anstruther Harbour, Fife, Scotland.
Trovate l’originale, più grande, sul sito della Cloud Appreciation Society.
Andate a vedervi la home page della Pontificia Accademia delle Scienze.
Il tipo barbuto, con l’espressione seria, ma gioviale, che sta in copertina, è Galileo Galilei, con tanto di telescopio. Proprio quello che, qualche secolo fa, fu costretto dall’Inquisizione a rinnegare il suo Dialogo sopra i massimi sistemi in cui sosteneva la validità del modello copernicano.
Ormai papa Giovanni Paolo II° ha riconosciuto l’errore e così Galileo può anche finire sulla home page della maggiore istituzione scientifica del Vaticano. Tutto bene, se non che il fisico Stephen Hawking racconta questo gustoso aneddoto, relativo allo stesso GP2:
…nel 1981 il mio interesse per gli interrogativi sull’origine e il destino dell’universo fu richiamato in vita mentre partecipavo a un convegno sulla cosmologia organizzato dai gesuiti in Vaticano. […]
Al termine del convegno i partecipanti furono ammessi alla presenza del santo padre. Il papa ci disse che era giustissimo studiare l’evoluzione dell’universo dopo il big-bang, ma che non dovevamo cercare di penetrare i segreti del big-bang stesso perché quello era il momento della Creazione, quindi l’opera stessa di Dio.
Fui lieto che il papa non sapesse quale argomento avessi trattato poco prima nella mia conferenza al convegno: la possibilità che lo spazio-tempo fosse finito ma illimitato, ossia che non avesse alcun inizio, che non ci fosse alcun momento della Creazione.
Io non provavo certamente il desiderio di condividere la sorte di Galileo…
[S. Hawking, Dal big-bang ai buchi neri, Rizzoli 1988, pag. 136]
Chissà perché qui quasi nessuno parla mai della teoria del picco di Hubbert.
Si tratta di una teoria scientifica, proposta, nella sua formulazione iniziale, nel 1956 dal geofisico americano Marion King Hubbert, riguardante l’evoluzione temporale della produzione di una qualsiasi risorsa minerale o fonte fossile esauribile o fisicamente limitata. In particolare, l’applicazione della teoria ai tassi di produzione petrolifera, risulta oggi densa di importanti conseguenze dal punto di vista geopolitico, economico e ingegneristico.
La teoria permette di prevedere, a partire dai dati relativi alla “storia” estrattiva di un giacimento minerario, la data di produzione massima della risorsa estratta nel giacimento, così come per un insieme di giacimenti o una intera regione.
In particolare, la storia di produzione della risorsa nel tempo segue una particolare curva a campana, detta appunto curva di Hubbert, che presenta in una fase iniziale una lenta crescita della produzione, che man mano aumenta fino ad un punto di flesso e quindi al picco per poi cominciare un declino dapprima lento, e quindi sempre più rapido.
Hubbert basò inizialmente la sua teoria sull’osservazione dei dati storici della produzione di carbone in Pennsylvania, giungendo solo in seguito ad una trattazione matematica generalizzata applicabile anche ad altri casi.
Estrapolando la sua teoria al futuro della produzione di petrolio degli stati continentali americani, Hubbert fece la previsione (nel 1956) che agli inizi degli anni ’70, gli USA avrebbero raggiunto il loro “picco di produzione” petrolifera.
Le conclusioni di Hubbert furono inizialmente trattate con “sufficienza” dagli ambienti scientifici ed economici, situazione che cambiò radicalmente nei primi anni 70, quando, effettivamente, i 48 stati continentali USA raggiunsero il loro picco di produzione. La concomitanza di questi eventi con le crisi petrolifere del 1973 e del 1979 fece di Hubbert forse il geofisico più famoso del mondo.
Negli ultimi anni diversi studiosi in tutto il mondo (tra cui Colin Campbell, Jean Laherrère ed altri) hanno ripreso le sue teorie riuscendo, in primo luogo ad estendere l’analisi a tutti gli stati americani, ed in seguito cercando di estrapolare e formalizzare meglio i suoi risultati al fine di prevedere il picco di Hubbert della produzione mondiale di petrolio e gas naturale.
Sebbene tali analisi risultino molto più complicate a causa della grande incertezza sulle riserve petrolifere di molti stati (in particolare mediorientali), la maggior parte delle analisi fa cadere il “picco di Hubbert mondiale” all’incirca nel secondo decennio del XXI secolo o, più precisamente, tra il 2006 e, al più tardi, il 2020, anche in previsioni di eventuali crisi economiche che potrebbero temporaneamente ridurre la richiesta di petrolio.
Altri studi collegati, che tengono in conto anche lo sviluppo di fonti petrolifere “non convenzionali”, quali le sabbie bituminose, gli scisti bituminosi, e i gas liquefatti (detti anche NGL) non giungono comunque a ‘spostare’ di molto in avanti queste date.
[da wikipedia]
Ne consegue che, se Hubbert ha ragione, tra 15/20 anni si dovrebbero cominciare a sperimentare gli effetti di una produzione petrolifera in discesa a picco, avviata verso la fine. E non sarà un bel vedere…