That Goodbye

Me

That Goodbye è una elaborazione del primo verso tratto dalla poesia “Do not go gently into that goodnight” di Dylan Thomas, letto dall’autore e tratto da una registrazione d’epoca.
L’idea di questo brano è di mettere a punto delle tecniche tali per cui la parola via via si “consumi” diventando lentamente puro suono.
Ora, una delle cose che mi hanno sempre affascinato è l’eco. Ma l’eco è una ripetizione (quasi) identica all’originale. In “That Goodbye” invece, ho adottato delle tecniche di elaborazione per cui l’eco ritorna modificato sempre di più ad ogni ripetizione.

Queste tecniche consistono nell’inserire il dispositivo di elaborazione all’interno del loop che genera l’eco. Quindi il suo effetto si accumula e cresce ad ogni ripetizione che così si trasforma sempre di più rispetto all’originale.

Questo modo di comporre è abbastanza lontano dalle tecniche tradizionali. Qui, io seleziono processi di elaborazione che generano risultati di lunga durata. La composizione, a questo punto, equivale alla scelta dei frammenti sonori e dei processi di elaborazione attraverso i quali devono ‘rotolare’.

Alcuni esempi [NB: per non costringevi ad ascoltare mezz’ora di esempi, tutti gli eventi sono accelerati rispetto al loro utilizzo nel brano, nel senso che il delay è molto breve (circa 1 sec.) e quindi la frequenza delle ripetizioni è elevata per cui la trasformazione avviene nel giro di pochi secondi].

  • Elemento di elaborazione: riverbero
    In questo esempio l’accumulo della riverberazione a ogni ciclo di loop produce un alone sempre più lungo e presente per cui il riverbero si “mangia” letteralmente il suono riducendolo alle sole frequenze di risonanza eccitate dall’input. Il collegamento con in frammento iniziale rimane in forma agogica. Sotto l’aspetto frequenziale, il risultato dipende sia dalle frequenze presenti nell’input che dalle frequenze di risonanza del riverbero.
  • Elemento di elaborazione: filtro
    Ad ogni ciclo di loop l’input è filtrato con un passa-banda a guadagno unitario, che lascia inalterata solo la freq. di centro-banda e attenua tutte le altre. Il suono, via via, si semplifica fino a lasciare una singola sinusoide.
  • Elemento di elaborazione: flanger
    L’effetto flanger applicato a un suono si incrementa a ogni ripetizione dando vita a battimenti di complessità crescente.
  • Elemento di elaborazione: ring modulator
    Il modulatore ad anello, con modulante piazzata su uno degli armonici, espande lo spettro e ne cambia il bilanciamento a ogni ciclo di loop.

That Goodbye inizia con la voce di Dylan Thomas che passa attraverso un banco di 8 filtri passa-banda e viene suddivisa in altrettanti flussi audio indipendenti che rapidamente si sfasano.

Ognuno di essi si infila, poi, in una linea di ritardo con tempo differenziato rispetto alle altre (da circa 5 a circa 12 secondi). Le frequenze di taglio e la larghezza di banda dei filtri non sono regolarmente spaziate, ma sono state tarate sulle bande di maggiore attività del segnale e vanno da 100 a 5000 Hz.

In questa prima fase l’elemento di elaborazione nel loop è principalmente il riverbero che allunga il suono e lo trasfigura distruggendo le parole e trasformandolo in bande frequenziali di altezza differenziata. Le bande basse e medie hanno tempi di riverbero più lunghi (fino a 6-8 secondi) e formano rapidamente delle fasce sonore di sfondo in evoluzione su cui si muovono gli elementi più acuti.

Nella seconda fase utilizzo come input alcuni dei punti finali di trasformazione della prima che vengono inviati a delay con processing differenziati, soprattutto flanger, filtri, ring modulator e inviluppi. Questi ultimi due sono i responsabili dell’emergere di suoni tipo campana derivanti dalla trasformazione spettrale delle bande medio-alte e dall’applicazione di un inviluppo che all’inzio è lineare e si fonde con il resto, ma diventa più sensibile e differenziato via via che si fa maggiormente percussivo.

Verso la fine della seconda fase parte una terza fase che inizia sulle bande basse a cui si applicano delay con ring modulator e pitch shift sulla scala armonica dando vita a una scalata agli armonici che si espande ad ogni ciclo di loop.

Questa parte si risolve in una quarta e ultima fase che si muove quasi all’indietro nel pezzo mandando in loop i risultati di varie convoluzioni fra la frase originale e e frammenti tratti dalle tre fasi precedenti creando una serie di fantasmi del frammento di partenza.

Mauro Graziani – That Goodbye (2002)

13 colori del sole al tramonto

Treize couleurs du soleil couchant (1978) è uno dei lavori più noti di Tristan Murail e della corrente della musica spettrale da lui fondata insieme a Grisey.
Scritta per quintetto (violino, violoncello, flauto, clarinetto, pianoforte) e elaborazione elettronica, l’opera si basa su 13 note generatrici dalle quali se ne ricavano altre applicando una tecnica concettualmente derivata dal modulatore ad anello di analogica memoria.
Al di là dei paroloni, si tratta di derivare nuove note per somma e differenza fra le frequenze di una serie di note date. Esempio: prendiamo un La 110 Hz e un Mi 165 Hz (la 5a sopra). La loro differenza dà 55 Hz che è un La all’8va sotto il precedente; la somma dà 275 Hz che è un Do# (appena stonato).
Questa tecnica compositiva, da tempo nota e utilizzata da tutti coloro che hanno avuto a che fare con la musica elettronica analogica, Stockhausen in primis (Mantra per 2 pianoforti e ring modulator), è molto interessante perché esibisce la seguente proprietà:

  • se le due frequenze generatrici sono in rapporto armonico (ovvero l’una è un armonica dell’altra, come nell’esempio di cui sopra), la loro somma e differenza creano altri armonici;
  • se non sono in rapporto armonico, anche le frequenze generate sono inarmoniche.

Murail divide idealmente il brano in 13 sezioni, ognuna centrata su una delle note generatrici, attorno alle quali si creano delle “ombre” sotto forma di altre note e suoni elettronici generati con il sistema suddetto. Pilotando il metodo, cioè articolando la sequenza delle note generatrici e i registri in cui le note sono utilizzate, Murail costruisce un percorso timbrico analogo (o ispirato) alle variazioni di luce dipinte da Monet nel suo ciclo delle cattedrali.
Nel 1894 Monet realizzò una serie di trenta tele dedicate alla facciata della cattedrale di Rouen. In queste tele ciò che l’artista cerca è la luce, e come essa riesce a modificare la percezione della realtà. Così egli rappresenta la cattedrale in diverse ore del giorno e con diverse condizioni atmosferiche, giungendo ogni volta a risultati pittorici diversi. La cattedrale a volte sembra smaterializzarsi, a volte si cristallizza in forme più salde, ma la luce ne modifica in ogni caso la percezione cromatica, così che la sua facciata cambia di colore a seconda dell’ora del giorno. L’insieme delle trenta tele è davvero impressionante e suggestivo, in quanto lo stesso oggetto dà luogo a trenta immagini differenti.
Analogamente, Murail ripete lo stesso oggetto musicale all’interno di ciascuna sezione, variandone la colorazione timbrica e scrive

partant d’une clarté moyenne dans les premières sections, le timbre progresse vers une lumière réverbérante marquée par un intervalle très resserré dans l’aigu (sixième couleur), pour aboutir à un crépuscule sonnant, dans son extrême fin, comme un glas

Tristan Murail – Treize couleurs du soleil couchant (1978) per violino, violoncello, flauto, clarinetto, pianoforte e live electronics

Esecuzione dell’Ensemble Intercontemporain

Esecuzione con partitura

Archi di Luce

Lichtbogen è ispirato alle luci del nord che Kaija Saariaho ha visto nel cielo artico della sua Finlandia.
La pulsazione costante dell’aurora boreale è presente in questa musica sotto forma di cambiamenti continui nella sonorità e nel ritmo.

Lichtbogen was inspired by the Northern Lights, which Saariaho had seen in the Arctic sky. The constant flickering of the aurora borealis can be heard in the music as unending changes in sonority and rhythm.

Lichtbogen (1985–1986) – flute, percussion, harp, piano, 2 violins, viola, cello, double bass and live electronics

Maderna Elettronico

A differenza delle scuole tedesca e francese, la politica dello Studio di Fonologia della RAI di Milano, fondato nel 1955, è stata sempre improntata all’empirismo e al lasciare i compositori liberi di ricercare in qualsiasi direzione puittosto che conformarsi a delle dichiarazioni di principio. Maderna e Berio, i primi a lavorarvi, coadiuvati dal tecnico Marino Zuccheri, si accostano a queste nuove tecniche senza determinismi e idee preconcette circa la loro organizzazione confrontandosi con il materiale. Più tardi, nel 1960, a loro si aggiunse Nono.

La sensibilità musicale di Maderna ottiene subito dei risultati con Notturno (1956), un’opera quasi sussurrata, da ascoltare in pianissimo e Continuo (1958). Di quest’ultimo brano esistono pochi appunti di Maderna che lo descrive come un pezzo avente alla base un unico suono che passa attraverso 22 stadi di lenta e graduale trasformazione, senza soluzione di continuità. Secondo la testimonianza di Marino Zuccheri, però, quell’unico suono non sarebbe sintetico, bensì una nota del flauto di Gazzelloni.
Il risultato, per l’epoca, è affascinante in ogni caso perché qui si lascia che sia il materiale a evolversi e a dettare le proprie regole. Il sonogramma approssimato che potete vedere è di Giordano Montecchi, che ha svolto un’attenta analisi su questo brano pubblicata nei Quaderni della Civica Scuola di Musica, num. 21-22, 1992, Milano (click immagine per ingrandire).

Ascolta Continuo.

continuo

Un’ultima considerazione riguarda lo Studio di Fonologia della RAI di Milano, che ha chiuso per obsolescenza nel 1983. Lo Stato Italiano lo ha fondato e così lo ha lasciato, senza mai aggiornarlo. Già da molti anni non vi lavorava più nessuno.
Una struttura che ha svolto un ruolo importantissimo nella sperimentazione sonora degli anni ’50 e presso la quale hanno lavorato musicisti come Bruno Maderna, Luciano Berio, Luigi Nono, John Cage, Henri Pousseur, Vladimir Ussachevsky, Franco Donatoni e molti altri e che, di conseguenza, si era costruita una reputazione nell’ambiente musicale mondiale è andata buttata solo per mancata volontà, non certo per costi. Tutto ciò getta una luce ancora più sinistra sulla totale assenza dimostrata in tempi recenti dalle istituzioni italiane per quanto riguarda la sperimentazione sonora.

Ascolta Continuo.

Cronologia della Musica Elettroacustica

Theremin
Un po’ di autopromozione non guasta.
Vi segnalo la mia Cronologia della Musica Elettroacustica, una pagina piena di stravaganti curiosità come la voce di Edison registrata da uno dei suoi fonografi alla fine dell’800, oppure un incredibile carillon orchestrale con ance, flauti, campane, piatti, tamburi costruito in Svizzera da Gueissaz nel 1904 e inviato a San Pietroburgo per essere donato dallo Zar allo Scià di Persia, e naturalmente il suono dei primi strumenti elettrici e altro ancora.

Kaija Saariaho

Here you can listen to
Six Japanese Gardens (1992), percussions and electronics

Six Japanese Gardens is a collection of impressions of the gardens I saw in Kyoto. Each of the six parts gives a specific look at a rhythmic material, including complex polyrhythmic or ostinato figures and purely coloristic materials. The percussion is extended with the electronic part, in which we hear nature’s sounds, ritual singing, and other instruments.
from a note by Kaija Saariaho

Shane Jones percussions

Près (1992) for cello and electronics

Près for cello and electronics is in three movements. The electronic element (synthetic sounds, modified pre-recorded cello, and live sound processing) expands the musical gestures of the cello in many different directions. The title of the work links it to Gauguin’s painting By the Sea; and hence to the experience of the sea itself and waves, their rhythms and sounds, stormy weather and calms.
from a note by Kaija Saariaho

Anssi Karttunen, cello, Carlo Barbagallo, electronics

Site: Kaija Saariaho

Sospeso in una bolla immobile

Sospeso nella bolla immobile del ferragosto in una città che sembra totalmente ferma. Dondolante su un’amaca in un quartiere deserto, questa mi sembra la musica adatta. È una mia composizione del 1980 pensata come arredamento per un appartamento vuoto.
Io suono al piano brevissime frasi diatoniche (da 1 a 6 note) generate da un processo casuale, ogni frase per una sola volta. Un eco di 6 secondi le ripete e le fonde costruendo forma, ritmo, tensioni, risoluzioni, eventualmente emozioni.

Mauro Graziani – Morning Grill (1980) – for piano and delay

Nuovi Strumenti: Audiopad

Audiopad è stato sviluppato da due neolaureati del MIT (James Patten and Ben Recht) ed è una delle più interessanti interfacce musicali esistenti. Può essere utilizzato come strumento autonomo perché include una propria libreria di campioni audio ed è in grado sia di suonare che di eseguire operazioni di elaborazione audio nello stesso tempo, ma può anche essere usato come controller di un software di sintesi in realtime che gira su un computer esterno (come Max/Msp) oppure anche di una serie di sintetizzatori MIDI.
La cosa più interessante, però, è sicuramente l’interfaccia. Si basa su una grande superficie orizzontale su cui appaiono dei simboli, in modo simile a uno schermo piatto. Fin qui non ci sarebbe niente di diverso da un grande touch-screen, ma sulla superficie di Audiopad, gli esecutori muovono anche degli oggetti la cui posizione e movimento sono rilevati dal sistema.
Audiopad genera musica interpretando il movimento di tali oggetti e la loro posizione rispetto ai simboli che si trovano sullo “schermo”.
Ovviamente il tipo di simboli e il loro significato, così come l’interpretazione del movimento e della posizione degli oggetti, può cambiare in base al software. Per esempio, i simboli possono rappresentare diversi strumenti e gli oggetti delle parti strumentali. In tal caso, il fatto che l’esecutore muova un oggetto su un simbolo significa assegnare quella parte a quello strumento. Oppure un oggetto può essere un microfono e allora muovere uno strumento vicino/lontano dal microfono significa alzare/abbassare il suo volume.
Inoltre il display non è statico, ma può cambiare quando l’esecutore porta un oggetto in determinate posizioni aprendo così nuove vie di elaborazione audio o interpretazione. Il tutto è fluido perché guidato dal software.
Audiopad, quindi, è molto diverso dalla tradizionale interazione con il computer basata sul modello desktop, tastiera, mouse e per questa ragione è anche difficile da descrivere. In questo caso l’immagine vale decisamente più di 1000 parole, così vi invito a vedere questo buon filmato.
Sfortunatamente Audiopad non è ancora in vendita. L’unica cosa sul mercato che va in questa direzione è Lemur (ne parleremo), ma è solo un passo perché, per quanto carino, si tratta solo di un touch-screen programmabile, molto lontano dalla complessità di Audiopad.