Il canto della cometa

Ok. Dimenticate il titolo aulico. Quello di cui parliamo è un fenomeno scientifico che comunque ha anche dei risvolti audio e ci offre  l’occasione di parlare di una delle più affascinanti missioni spaziali degli ultimi anni.

Rosetta è una missione spaziale sviluppata dall’Agenzia Spaziale Europea e lanciata nel 2004. L’obiettivo ultimo della missione è lo studio della cometa 67P/Churyumov-Gerasimenko, una cometa periodica che ritorna ogni 6.45 anni terrestri.

La missione è formata da due elementi: la sonda vera e propria Rosetta e il lander Philae. Quest’ultimo è destinato a staccarsi dalla sonda e atterrare sul nucleo della cometa, di cui la sonda ha già inviato splendide foto. Il distacco è avvenuto proprio oggi 12/11 e il lander sta scendendo verso il nucleo (incrociamo le dita).

La parte audio della faccenda è questa. Ovviamente la sonda trasporta molti strumenti per studiare da vicino la cometa. Cinque di questi costituiscono il cosiddetto Rosetta’s Plasma Consortium (RPC) e servono a studiare l’ambiente di plasma che circonda la cometa (il plasma è uno stato della materia che appare come un gas elettricamente conduttivo che circonda i campi magnetici e le correnti elettriche).

Già in Agosto, l’RPC ha scoperto che il campo magnetico della cometa ha una oscillazione con frequenza intorno ai 40-50 millihertz. Ora, qualsiasi oscillazione più o meno periodica può essere trasformata in suono. In questo caso il problema è che la frequenza è troppo bassa per essere udibile. Le frequenze più basse che siamo in grado di percepire stanno intorno a 20 Hz, mentre qui abbiamo a che fare con 0.05 Hz.

Il problema si può risolvere trasponendo (ovvero accelerando) il tutto di circa 10000 volte. Così 0.05 Hz diventano 500 Hz che sono perfettamente ascoltabili e il suono che ne esce è questo:

Ecco un’immagine del nucleo della cometa (il piccolo 747 che vedete al centro non è alieno; è lì per confronto; clicca per ingrandire)

nucleo cometaUna nota finale. Prima di delirare con toni mistici intorno al canto della cometa, rendetevi conto che qualsiasi fenomeno periodico può essere convertito in suono. Per esempio, la rotazione terrestre è periodica. Il giorno solare medio dura circa 24 ore, cioè 86400 secondi. Di conseguenza. dato che la frequenza è l’inverso del periodo, esso ha una frequenza di 0.000011574 Hz, troppo bassa per sentirla, ma basta trasporla di 24 ottave per avere circa 194.18 Hz, che corrispondono a una nota perfettamente udibile: un Sol appena calante (con La = 440 Hz).

Il Kosmofono

Musica pilotata dai raggi cosmici. Non è una rarità. Ogni tanto qualcuno fa esperimenti del genere. Effettivamente, da quando note e frequenze possono essere espresse numericamente e inviate agli algoritmi di sintesi, la cosa non è così complessa: bisogna solo scegliere come riscalare i dati di partenza.

Da alcuni anni questi procedimenti hanno anche assunto una valenza scientifica con il nome di sonification. La trasformazione di dati di qualsiasi tipo in audio, infatti, consente di individuare più facilmente schemi ripetuti, differenze e altre caratteristiche del fenomeno su cui si indaga.

Ovviamente, dal punto di vista compositivo la faccenda assume tutto un altro aspetto. Il fenomeno fisico che origina i dati non si preoccupa minimamente di assumere un andamento che per noi possa essere sensato o significativo. Anzi, di solito il risultato è ripetitivo, noioso e monotono (spesso anche monotòno, nel senso matematico che indica movimento sempre verso la stessa direzione, per es. una curva logaritmica che sale o scende sempre approssimando un limite).

Il Kosmophono di cui parliamo è abbastanza “anziano”, essendo in attività almeno dal 2005 (sito). Si tratta di uno spettrometro a raggi gamma che opera nel range di 3-7 MeV, il cui output viene inviato al MIDI IN di un sintetizzatore.

Una breve spiegazione. La maggior parte dei raggi gamma è prodotta da fenomeni extra-solari (nello spazio lontano) di grande potenza. Le onde prodotte da tali fenomeni non sono audio (altrimenti non arriverebbero fin qui), ma fanno parte dello spettro elettromagnetico (come le onde radio e la luce che vediamo). Inoltre ne occupano la parte più bassa in termini di lunghezza d’onda (< 0.006 nanometri = 6 millesimi di milionesimo di millimetro), che equivale alle frequenze più alte, circa 5×1019 Hz e sono anche molto dannose per noi.

Fortunatamente, non arrivano fino al suolo ma si infrangono sugli strati alti dell’atmosfera e sono queste collisioni che lo spettrometro rileva. Ognuno di questi eventi produce una emissione di energia che viene misurata e convertita da un ADC a 12 bit di cui i 7 più alti vengono utilizzati come pitch MIDI e i 4 seguenti come velocity (l’ultimo bit si butta via).

Il player è un sintetizzatore MIDI, di solito un Roland JX-305 o un Alesis QSR.

Ora si può ascoltare una singola sequenza inviata al Roland. Essendo una sequenza singola è monofonica e piuttosto noiosa, però serve per capire il range e la densità degli eventi. È un MP3.

Percettivamente, le cose cambiano quando si sovrappongono due sequenze. La sovrapposizione non è in tempo reale. Semplicemente vengono mandate alla porta MIDI due sequenze salvate in tempi diversi (una è la sequenza precedente). Ne consegue che le due sequenze sono del tutto scorrelate, però è interessante notare che il nostro sistema percettivo (almeno quello di chi è abituato ad ascoltare un certo tipo di musica contemporanea) tende a fabbricare delle correlazioni. In effetti, complice anche il fatto che qui si utilizzano due timbri diversi, questo frammento è più interessante del precedente.

Un’altra sovrapposizione di varie sequenze a cui sono assegnati diversi timbri, ma tutti riconducibili a suono “biologici” (uccelli, insetti, miagolii, etc). Il risultato è decisamente piacevole perché tutti i suoni ricadono in una ben determinata tipologia e il nostro cervello ha gioco facile nel costruire delle connessioni e interpretare il tutto come un paesaggio sonoro abbastanza coerente.

Nel sito del Kosmofono potete ascoltare vari altri esempi.

Kosmophone

Eanalysis

Eanalysis

EAnalysis è un software per Mac creato specificamente per l’analisi e la rappresentazione di sound based music, ovvero la musica elettroacustica.

Ecco, ad esempio, come è possibile rappresentare parte di tre brani di François Bayle: L’oiseau moqueur, L’oiseau triste e L’oiseau zen tratti dai Trois rêves d’oiseau.

In ogni schermata possiamo vedere il sonogramma e la forma d’onda in basso, mentre nella parte superiore viene creata una rappresentazione grafica degli eventi sonori. Questa rappresentazione non è automatica, però il software dispone di strumenti individuare e marcare gli eventi sonori (in pratica una forma di segmentazione). Inoltre può importare dati da altri software come Sonic Visualiser, Audiosculpt, Acousmographe, Pro Tools, etc. (click image to enlarge)

EanalysisEAnalysis può essere scaricato da qui.

Att.ne: la versione attuale non funziona con Yosemite (come, del resto, gran parte del Mac).

Altre informazioni riportate sul sito:

Research and development: Dr Pierre Couprie. Coordination: Prof Simon Emmerson & Prof Leigh Landy

The development of EAnalysis is part of the research project entitled ‘New multimedia tools for electroacoustic music analysis’ at the MTI Research Centre of De Montfort University (Leicester, UK). The project is funded by the Arts and Humanities Research Council (AHRC).

This piece of software aims at experimenting new types of graphic representations and new analytical methods with an intuitive interface and adapted tools for analysis purposes.

Features

  • Visualise sonogram (linear or logarithmic) and waveform.
  • Import several audio and/or movie files to analyse multitrack works or compare different works.
  • Create beautiful representations with graphic events on different layers.
  • Analyse with analytical events and sound/musical parameters.
  • Create your own analytical lists of parameters and share them.
  • Annotate during playback with time text.
  • Use graphic tablet or interactive whiteboard to draw representation.
  • Use several types of views in the same interface.
  • Create charts and maps from sound extracts: paradigmatic chart, generative tree, soundscape map, etc.
  • Create synchronised slideshow.
  • Create layers of sonograms from several tracks to analyse space motions, difference between versions of same work, or different works.
  • Save configurations (snapshots).
  • Import data from other software like Sonic Visualiser, Audiosculpt, Acousmographe, etc.
  • Import Pro Tools information sessions and create graphic representation from sound clips.
  • Export to images, movies, and text files (txt, csv, xml, json).
  • Export without media to share analysis without copyright restrictions.

David Lee Myers

Questo post è la revisione di uno del 2006. Mi sembra che, essendo Myers non molto noto, sia il caso di parlarne ancora.

David Lee Myers è un compositore che si trova nella scomoda situazione di essere sconosciuto al grande pubblico perché non fa “pop” e sconosciuto agli accademici perché i suoi lavori non si inseriscono nella tradizione “colta”. Però è conosciuto dagli sperimentatori a oltranza, da quelli che non si accontentano di ri-elaborare delle idee maturate nell’ambito di una corrente, quelli un po’ scontenti e un po’ solitari che regolarmente disfano quello che hanno appena fatto per il gusto di ricominciare da capo.

Nel 1988 affermava che

True electronic music does not imitate the classical orchestra or lend well worn melodies the cloak of unexpected timbres – it exists to evoke the hitherto unknown. And it comes from circuits and wires, though I do not believe that electronic sound is “unnatural”, as some people might.

La vera musica elettronica non imita l’orchestra classica e non presta un mantello di timbri inattesi a melodie ben formate – essa esiste per evocare ciò che fino ad ora è sconosciuto. E nasce da circuiti e cavi, ciò nonostante io non credo che il suono elettronico sia così “innaturale” come qualcuno pensa.

DiaagProprio queste considerazioni hanno condotto D. L. Myers alla pratica di una musica estrema, quasi totalmente priva di input: niente partitura, nessuna tastiera, nessun suono da elaborare, nessun sistema di sintesi propriamente detto. Una musica in cui sia i suoni che le strutture non nascono dalla pressione di un tasto o dal fatto che qualcuno mette giù un accordo, ma dall’interazione spontanea di una serie di circuiti collegati fra loro in retroazione che l’essere umano si limita a controllare.
Al massimo l’input viene utilizzato solo come sorgente di eccitazione per il circuito di feedback.

Quello che Myers faceva, già nel 1987 con apparecchiature analogiche, era feedback music.

Il feedback positivo in una catena elettroacustica è stato sperimentato, con fastidio, da chiunque abbia usato un microfono e lo abbia inavvertitamente puntato verso gli altoparlanti. In breve si produce un fischio lancinante, mentre i tecnici si lanciano verso il mixer per abbassare il volume.

Questo problema, più conosciuto come Effetto Larsen, si verifica perché il microfono capta dei suoni che vengono amplificati e inviati all’altoparlante. Se gli stessi suoni, in uscita dall’altoparlante, vengono nuovamente captati dal microfono, amplificati e ri-inviati all’altoparlante, si crea una retroazione positiva tale per cui entrano in un circolo chiuso in cui vengono continuamente amplificati fino ad innescare un segnale continuo a forte volume.

Come si può immaginare, il feedback è un po’ il terrore di tutti i tecnici del suono, ma in determinate circostanze può essere controllato e se può essere controllato, può anche diventare uno stimolo per uno sperimentatore.

Bisogna puntualizzare che non si tratta di una idea di Myers. Ai tempi della musica elettronica analogica questo effetto è stato utilizzato in parecchi contesti. Anch’io ne ho fatto uso in una installazione del 1981 (si chiamava “Feedback Driver”, appunto), ma credo che negli anni ’80 l’abbiano provato un po’ tutti, con alterni risultati. I miei primi ricordi relativi a questa tecnica risalgono al lavoro di Tod Dockstader, un ricercatore e musicista americano relativamente poco noto, anche se alcune sue musiche sono finite nel Satyricon di Fellini.

Quello che distingue Myers dagli altri, però, è l’averne fatto una vera e propria poetica. Lui non sfrutta il feedback per elaborare qualcosa, non parte da algoritmi di sintesi, ma collega in retroazione una serie di dispositivi (principalmente mixer e multi-effetti) e variando i volumi sul mixer (che a questo punto diventa la sua “tastiera”) e cambiando tipo e profondità degli effetti ne trae una serie di sonorità suggestive, sempre in bilico fra il fascino di una musica che si muove in modo quasi biologico e il totale disastro delle macchine fuori controllo.

Senza dubbio, Myers è un virtuoso, ma, a differenza del virtuoso tradizionalmente inteso, lui non domina il proprio strumento. Piuttosto lo asseconda, cercando di spingerlo in una direzione. Qui la composizione consiste nel definire una rete di collegamenti fra i dispositivi e la tecnica si fa estetica.

Inoltre, come si vede in questo breve video, Myers si fa anche artista visuale elaborando una serie di tracce create dalla sua stessa musica.

Sito di riferimento: pulsewidth.

David Wessel

WesselPer ricordare David Wessel, scomparso il 13 Ottobre a 73 anni, mettiamo alcune testimonianze.

Per primo, il suo brano del 1977, Anthony.

In realtà Wessel è sempre stato un ricercatore più che un compositore, difatti la sua produzione musicale è rara. Anthony è un tipico brano costruito con fasce sonore in dissolvenza incrociata ed è stato uno dei primi pezzi realizzati con le macchine per la sintesi in tempo reale costruite da Peppino Di Giugno all’IRCAM.

Quella utilizzata qui è la 4A del 1975, uno dei primi modelli, il primo ad andare oltre lo stadio di prototipo. Si trattava di un processore capace di generare in tempo reale fino a 256 oscillatori digitali in wavetable (cioè con forma d’onda memorizzata e quindi con contenuto armonico definito dall’utente) con relativo inviluppo di ampiezza. Nonostante il fatto che gli oscillatori non si potessero connettere fra loro, era un passo avanti notevole per quegli anni perché, con i sistemi analogici dell’epoca, era già difficile arrivare a 10 oscillatori (per maggiori particolari vedi le voci 4A e Giuseppe Di Giugno sul blog di Alex Di Nunzio).

Se da punto di vista quantitativo la 4A era un grande passo avanti, la qualità del suono era limitata dal fatto che non si potevano realizzare dei metodi di sintesi a spettro sonoro variabile (per es. con filtri o modulazione di frequenza), se non ricorrendo all’additiva. In Anthony, Wessel aggira questo limite evitando una caratterizzazione melodica del materiale sonoro, affidandosi, invece, a grandi cluster in lenta mutazione armonica.

Att.ne: il brano inizia molto piano. Inoltre con gli altoparlantini del computer ne sentite metà.

Un secondo contributo video riguarda l’attività di David Wessel come ricercatore interessato principalmente all’interazione uomo – macchina, tanto che nel 1985 aveva fondato all’IRCAM un dipartimento di ricerca dedicato allo sviluppo di software musicale interattivo.

Qui viene mostrato lo SLAB, uno dispositivo di controllo composto da una serie di touch pad sensibili alla posizione e alla pressione. Ogni pad trasmette al computer informazioni relative alla posizione xy del dito che lo preme e alla pressione esercitata. Il flusso di dati è ethernet, non MIDI, per cui le misure sono accurate e la risposta è veloce (questa storia del superamento del MIDI ce la porteremo dietro per la vita; per citare Philip Dick, la cavalletta ci opprime). Maggiori dati tecnici sullo SLAB, qui. Per gli impazienti, nel video la performance inizia a 2:40.

Uppsala Analog Synthesizer Symphonic Orchestra

Per gli amanti del vintage, ecco la Uppsala Analog Synthesizer Symphonic Orchestra (UASSO). La musica è a tratti banale e nostalgica, ma il suono è quello di una volta. Un po’ più di coraggio non guasterebbe. Con tutti quei synth si può fare l’iraddiddio.

Gli strumenti con relativi strumentisti sono:

Front row:
* Erik Möller – Conductor
* Mario Pierro – Roland Juno 60, Roland SH-101
* Johan Runeson – Roland Jupiter 6
* Hans Möller – Korg Polysix
* Lisa Ulfves – Moog Rogue
* Glenn Liljestrand – Yamaha CS-5
* Kristofer Ulfves – Moog Prodigy, TR-606

Middle row:
* Peter Heerdt – ARP Odyssey
* Måns Sjöstrand – Roland MC-202
* Marcus Mohall – SH-2000

* Maja Stoltz Pierro – Jen SX-1000
* Dan Wistedt – Roland JX-3P
* Per Melander – Roland SH-09
* Tomas Bodén – Korg MS-20
* Olof Liliengren – Korg Mono/Poly

Back row:
* Håkan Lidbo – MC-202
* Daniel Araya – Pearl Syncussion, TB-303, TR-606
* Magnus Danielsson – EMS Synthi A
* Jon Nensén – Serge
* Andreas Tilliander – MS-20
* Jens Kallback – MS-10

Organ of qwerty

Distant SeasTreasury of curiosities’ is a dream-state wandering through a sonic wunderkammer, a collection of curios, oddities, freaks, gems, and objects of wonder and beauty, a display intended to provide access to non-familiar listening experiences. Although divided into separate tracks, it is meant to be listened to as one continuous piece.

This is the work from the mind of John Hanes (composing, percussion) who is also a drummer when he’s not making electronic music. He also had the help of friends Cary Sheldon (voice) and John Schott (guitar) to produce this disconcerting and amusing album.

[notes from test tube]

Free download from Test Tube site.

Excerpt:

Distant Seas

Esplorando Julien Bayle

Sto esplorando alcune produzioni di Julien Bayle (aka Protofuse). Abbastanza giovane (b. 1976, Marsiglia). Studi di biologia, informatica, forse musica. In quest’ultima spazia dalla techno all’ambient. In effetti ha iniziato come DJ Techno per passare, poi, ad Ableton, Max for Live e Max6 [notizie da wikipedia]. Si occupa anche di installazioni audio-visuali via Max + Jitter.

Musica di Julien Bayle si può ascoltare qui. Ecco un brano: void propagate #2

Ed ecco una immagine tratta da una installazione recente: Disrupt!on (2014) realizzata con Max6, OSC, OpenGL, Network connection.

impulse03

Dato che, come autore, spazia fra vari generi, alcune cose possono piacere, altre no, ma il suo è sicuramente un sito da visitare.

PS: mi sto anche chiedendo se non abbia qualcosa a che fare con François Bayle

DbN – The Found Tapes Project 2014

C’è del fascino nella poetica degli oggetti trovati…

DbN take old cassette tapes found on flea markets and thrift stores and use them as raw material in fully live improvised electronic music performances.

The found tapes are sampled, manipulated, processed and ”physically played” using granular synthesis and other techniques, to create obscure rhythmical structures, noises and drones.

For each and every concert DbN use only cassette tapes found locally within the city or the area of the specific concert venue, making the raw material for every performance totally unique.

The audience is encouraged to bring their own cassette tapes to the venue for use in the performance.

DbN – The Found Tapes Project 2014 from DA BOOK on Vimeo.

Webbed Hand Records

 

La  Webbed Hand Records è una netlabel che ha un interessante catalogo nell’area ambient, drone ed elettroacustica di confine, cioè sperimentale, ma non troppo accademica.

Il tutto pubblicato in CC, quindi liberamente scaricabile in formato mp3. In effetti sarebbe carino che le produzioni si potessero anche acquistare in formato non compresso, come fanno altre netlabel, ma probabilmente, visto anche il tipo di produzioni, il mercato non sarebbe sufficiente a giustificare gli oneri derivanti dalla vendita.

La trovate qui (o cliccate l’immagine)