Metaphase Sound Machine

Questa splendida e inusuale macchina sonora è stata progettata e costruita dal media-artist russo Dmitry Morozov (aka ::vtol::).

The Metaphase Sound Machine is a kind of homage to the ideas of the American physicist Nick Herbert who in the 1970s has created both Metaphase Typewriter and Quantum Metaphone (a speech synthesizer). These were some of the first attempts to put the phenomenon of quantum entanglement in practice and one of the first steps towards the creation of a quantum computer. The experimental devices, however, had not confirmed theoretical research, and Herbert’s obsession with metaphysics resulted in the publication of several of his works on the metaphysical in quantum physics, that have led to a serious loss of interest to the ideas of quantum communication. One day, in a course of his experiments, Herbert has hacked into an university computer trying to establish a contact with the spirit of illusionist Harry Houdini at the day of the centenary of his birth.

In his device Herbert in order to achieve a quantum entangled state used as a source radioactive thallium, which was controlled by the Geiger radiation counter. The time interval between pulses was chosen as conversion code. Several psychics had participated in the experiments. They tried to influence the endless stream of random anagrams arising from a typewriter or cause “the ghost voice” to be heard out of metaphone. Scientists also have conducted sessions to bring about the “spirit” of a colleague who had recently died, and who knew about this typewriter. In 1985 Herbert wrote a book about metaphysical in physics. In general, his invention and articles quite severely compromised the ideas of quantum communication in the eyes of potential researchers and by the end of the XX century no any substantial progress in this direction was observed.

The Metaphase Sound Machine is an object with 6 rotating disks. Each of the discs is equipped with acoustic sound source (a speaker) and a microphone. Each of the microphones is connected via computer and the rotary axis to the speakers on the disks. Also in the center of installation a Geiger-Mueller counter is set, that detects ionizing radiation in the surrounding area. The intervals between these particles influence rotation velocity of each of the disks. Essentially the object is an audio- and kinetic installation in which a sound is synthesized based on feedbacks, produced by microphones and speakers on rotating discs. Feedback whistles are used as triggers for more complex sound synthesis. Additional harmonic signal processing, as well as the volatility of the dynamic system, lead to the endless variations of sound. The form of the object refers to the generally accepted symbolic notation of quantum entanglement as a biphoton – crossing discs of the orbits.

Dmitry Morozov

Un altro video sullo stesso soggetto.

::vtol::

Phantom Terrains

Streams of wireless data surge from internet exchanges and cellphone relays, flowing from routers to our devices and back again. This saturation of data has become a ubiquitous part of modern life, yet it is completely invisible to us. What would it mean to develop an additional sense which makes us continuously attuned to the invisible data topographies that pervade the city streets?

Phantom Terrains is an experimental platform which aims to answer this question by translating the characteristics of wireless networks into sound. By streaming this signal to a pair of hearing aids, the listener is able to hear the changing landscapes of data that surround them. Network identifiers, data rates and encryption modes are translated into sonic parameters, with familiar networks becoming recognizable by their auditory representations.

The project challenges the notion of assistive hearing technology as a prosthetic, re-imagining it as an enhancement that can surpass the ability of normal human hearing. By using an audio interface to communicate data feeds rather than a visual one, Phantom Terrains explores hearing as a platform for augmented reality that can immerse us in continuous, dynamic streams of data.

Below the map is an audio recording of part of the same walk, as heard through the Phantom Terrains sonification interface. The sound of each network is heard originating from the router’s geographical location, producing clicks whose frequency rises with the signal strength — akin to a layered series of Geiger counters. Routers with particularly strong signals “sing” their network name (SSID), with pitch corresponding to the broadcast channel, and a lower sound denoting the network’s security mode.

Ascoltando wikipedia

listen to wikipediaListen to Wikipedia è una sonification dei cambiamenti fatti in wikipedia in tempo reale, con relativa visualizzazione. Quest’ultima esisteva già, ma adesso Hatnote ha aggiunto un gradevole audio.

Dei suoni tipo campana indicano aggiunte a un articolo, mentre le corde pizzicate suonano quando si cancella qualcosa. Le altezze sono pilotate dall’entità dell’editing (più grande = nota più bassa). Un dolce accordo di archi sottolinea l’entrata di un nuovo utente.

Questa è la pagina.

Sonification Handbook

Sonification HandbookIl Sonification Handbook (AA.VV., a cura di Thomas Hermann, Andy Hunt, John G. Neuhoff) è scaricabile gratuitamente (e legalmente) in versione PDF da questa pagina (guardate nella colonna di destra “download the book”) da cui è anche acquistabile in versione stampata. È possibile anche scaricare i singoli capitoli.

Questo libro è una presentazione introduttiva, ma completa delle aree chiave della ricerca nei campi interdisciplinari di sonificazione e visualizzazione uditiva (auditory display). I capitoli sono scritti da esperti e coprono una vasta gamma di temi centrali. Possono essere letti dall’inizio alla fine, o indipendentemente l’uno dall’altro secondo necessità (come il menu di un ricco buffet).

La sonificazione trasmette informazioni utilizzando suoni non vocali. Ascoltare i dati sotto forma di suono o rumore può essere un’esperienza sorprendentemente nuova con diverse applicazioni che vanno da nuove interfacce per i non vedenti all’analisi dei dati in molti campi scientifici.

Questo testo fornisce una solida introduzione al campo della visualizzazione uditiva (auditory display), delle tecniche per sonificazione, delle tecnologie adeguate a sviluppare algoritmi di sonificazione, e delle aree di applicazione più promettenti. Il libro è accompagnato daun’archivio online di esempi sonori.

Il canto della cometa

Ok. Dimenticate il titolo aulico. Quello di cui parliamo è un fenomeno scientifico che comunque ha anche dei risvolti audio e ci offre  l’occasione di parlare di una delle più affascinanti missioni spaziali degli ultimi anni.

Rosetta è una missione spaziale sviluppata dall’Agenzia Spaziale Europea e lanciata nel 2004. L’obiettivo ultimo della missione è lo studio della cometa 67P/Churyumov-Gerasimenko, una cometa periodica che ritorna ogni 6.45 anni terrestri.

La missione è formata da due elementi: la sonda vera e propria Rosetta e il lander Philae. Quest’ultimo è destinato a staccarsi dalla sonda e atterrare sul nucleo della cometa, di cui la sonda ha già inviato splendide foto. Il distacco è avvenuto proprio oggi 12/11 e il lander sta scendendo verso il nucleo (incrociamo le dita).

La parte audio della faccenda è questa. Ovviamente la sonda trasporta molti strumenti per studiare da vicino la cometa. Cinque di questi costituiscono il cosiddetto Rosetta’s Plasma Consortium (RPC) e servono a studiare l’ambiente di plasma che circonda la cometa (il plasma è uno stato della materia che appare come un gas elettricamente conduttivo che circonda i campi magnetici e le correnti elettriche).

Già in Agosto, l’RPC ha scoperto che il campo magnetico della cometa ha una oscillazione con frequenza intorno ai 40-50 millihertz. Ora, qualsiasi oscillazione più o meno periodica può essere trasformata in suono. In questo caso il problema è che la frequenza è troppo bassa per essere udibile. Le frequenze più basse che siamo in grado di percepire stanno intorno a 20 Hz, mentre qui abbiamo a che fare con 0.05 Hz.

Il problema si può risolvere trasponendo (ovvero accelerando) il tutto di circa 10000 volte. Così 0.05 Hz diventano 500 Hz che sono perfettamente ascoltabili e il suono che ne esce è questo:

Ecco un’immagine del nucleo della cometa (il piccolo 747 che vedete al centro non è alieno; è lì per confronto; clicca per ingrandire)

nucleo cometaUna nota finale. Prima di delirare con toni mistici intorno al canto della cometa, rendetevi conto che qualsiasi fenomeno periodico può essere convertito in suono. Per esempio, la rotazione terrestre è periodica. Il giorno solare medio dura circa 24 ore, cioè 86400 secondi. Di conseguenza. dato che la frequenza è l’inverso del periodo, esso ha una frequenza di 0.000011574 Hz, troppo bassa per sentirla, ma basta trasporla di 24 ottave per avere circa 194.18 Hz, che corrispondono a una nota perfettamente udibile: un Sol appena calante (con La = 440 Hz).

Il Kosmofono

Musica pilotata dai raggi cosmici. Non è una rarità. Ogni tanto qualcuno fa esperimenti del genere. Effettivamente, da quando note e frequenze possono essere espresse numericamente e inviate agli algoritmi di sintesi, la cosa non è così complessa: bisogna solo scegliere come riscalare i dati di partenza.

Da alcuni anni questi procedimenti hanno anche assunto una valenza scientifica con il nome di sonification. La trasformazione di dati di qualsiasi tipo in audio, infatti, consente di individuare più facilmente schemi ripetuti, differenze e altre caratteristiche del fenomeno su cui si indaga.

Ovviamente, dal punto di vista compositivo la faccenda assume tutto un altro aspetto. Il fenomeno fisico che origina i dati non si preoccupa minimamente di assumere un andamento che per noi possa essere sensato o significativo. Anzi, di solito il risultato è ripetitivo, noioso e monotono (spesso anche monotòno, nel senso matematico che indica movimento sempre verso la stessa direzione, per es. una curva logaritmica che sale o scende sempre approssimando un limite).

Il Kosmophono di cui parliamo è abbastanza “anziano”, essendo in attività almeno dal 2005 (sito). Si tratta di uno spettrometro a raggi gamma che opera nel range di 3-7 MeV, il cui output viene inviato al MIDI IN di un sintetizzatore.

Una breve spiegazione. La maggior parte dei raggi gamma è prodotta da fenomeni extra-solari (nello spazio lontano) di grande potenza. Le onde prodotte da tali fenomeni non sono audio (altrimenti non arriverebbero fin qui), ma fanno parte dello spettro elettromagnetico (come le onde radio e la luce che vediamo). Inoltre ne occupano la parte più bassa in termini di lunghezza d’onda (< 0.006 nanometri = 6 millesimi di milionesimo di millimetro), che equivale alle frequenze più alte, circa 5×1019 Hz e sono anche molto dannose per noi.

Fortunatamente, non arrivano fino al suolo ma si infrangono sugli strati alti dell’atmosfera e sono queste collisioni che lo spettrometro rileva. Ognuno di questi eventi produce una emissione di energia che viene misurata e convertita da un ADC a 12 bit di cui i 7 più alti vengono utilizzati come pitch MIDI e i 4 seguenti come velocity (l’ultimo bit si butta via).

Il player è un sintetizzatore MIDI, di solito un Roland JX-305 o un Alesis QSR.

Ora si può ascoltare una singola sequenza inviata al Roland. Essendo una sequenza singola è monofonica e piuttosto noiosa, però serve per capire il range e la densità degli eventi. È un MP3.

Percettivamente, le cose cambiano quando si sovrappongono due sequenze. La sovrapposizione non è in tempo reale. Semplicemente vengono mandate alla porta MIDI due sequenze salvate in tempi diversi (una è la sequenza precedente). Ne consegue che le due sequenze sono del tutto scorrelate, però è interessante notare che il nostro sistema percettivo (almeno quello di chi è abituato ad ascoltare un certo tipo di musica contemporanea) tende a fabbricare delle correlazioni. In effetti, complice anche il fatto che qui si utilizzano due timbri diversi, questo frammento è più interessante del precedente.

Un’altra sovrapposizione di varie sequenze a cui sono assegnati diversi timbri, ma tutti riconducibili a suono “biologici” (uccelli, insetti, miagolii, etc). Il risultato è decisamente piacevole perché tutti i suoni ricadono in una ben determinata tipologia e il nostro cervello ha gioco facile nel costruire delle connessioni e interpretare il tutto come un paesaggio sonoro abbastanza coerente.

Nel sito del Kosmofono potete ascoltare vari altri esempi.

Kosmophone

Charts Music

Johannes Kreidler (1980) è uno dei giovani compositori attualmente più discussi. Sa essere provocatore in modo molto tagliente, fa frequenti incursioni nel pop e spesso utilizza la musica per sollevare questioni etiche.

Uno dei suoi brani, Product Placements (2008), è una provocazione nei confronti della GEMA (la SIAE tedesca). In Germania, con splendida coerenza teutonica, per depositare un brano si deve compilare un modulo per ogni campionamento utilizzato, per quanto breve sia. In Product Placements Kreidler riesce a stipare 70200 campioni tratti da dischi altrui nel giro di 33 secondi. Ovviamente, con una tale concentrazione, i singoli campioni sono irriconoscibili. Ciò nonostante, Kreidler ha preteso di depositare il brano inviando 70200 moduli.

Nel pezzo che vi presentiamo, Charts Music (2009), le melodie sono generate seguendo le curve dei grafici della borsa (sostanzialmente discendenti) e delle vittime in Iraq (ascendenti), passando per l’andamento del debito  e del tasso di disoccupazione negli USA. I grafici vengono rimappati su una scala musicale e armonizzati con SongSmith, il software della Microsoft che genera automaticamente un accompagnamento in uno stile a scelta basandosi sulla melodia.

Il risultato è uno spassoso e conturbante esempio di sonification.

Kreidler vive a Berlino e insegna teoria musicale e musica elettronica all’Università della Musica e del Teatro di Rostock, al Hochbegabtenzentrum della Università della Music di Detmold e alla Hochschule für Musik und Theater di Hannover.

The sound of a “God particle”

ATLAS

ATLAS is a particle physics experiment at the Large Hadron Collider at CERN. Starting in late 2009/2010, the ATLAS detector will search for new discoveries in the head-on collisions of protons of extraordinarily high energy. ATLAS will learn about the basic forces that have shaped our Universe since the beginning of time and that will determine its fate. Among the possible unknowns are the origin of mass, extra dimensions of space, unification of fundamental forces, and evidence for dark matter candidates in the Universe.

ATLAS is known because of the research for the Higg’s Boson, the so called “God particle”. Now this research generates sounds. Lily Asquith is a particle physicist who has just finished her PhD at University College London. Her work on this project has been to identify physics processes for sonification and to convert real and simulated ATLAS data into files readable by audio software. Lily came up with this idea whilst trying to describe to a very patient friend what she thought different particles would sound like.

Now a group of particle physicists, composers, software developers and artist is working on sonification of ATLAS data. The data are first processed using the vast and all-powerful ATLAS software framework. This allows raw data (streams of ones and zeroes) to be converted step-by-step into ‘objects’ such as silicon detector hits and energy deposits. We can reconstruct particles using these objects. The next step is to convert the information into a file containing two or three columns of numbers known as a “breakpoint file”. It can also be used as a “note list”. This kind of file can be read by compositional software such as the Composers Desktop Project (CDP) and Csound software used for this project.

An excerpt.

  • The decay of a God particle
    This example maps properties of the Higgs jet to properties of sound. A jet is made up of lots of cells containing energy deposits. Each cell has an energy, a distance and an angular distance (dR) associated with it. So each cell can be heard as a separate note in this example. This is quite a long track (about 90 seconds). The sounds reduce in density very much towards the end, with isolated events separated by silences of several seconds.

 

Eruption Music

Volcan sonification

Apprendo ora da BBC News che alcuni scienziati italiani stanno cercando di trasformare in musica i sismogrammi dell’Etna al fine di poter meglio predire una eventuale eruzione.
La tecnica, nota come “data sonification” non è una novità. È stata usata più volte in passato per rendere più evidenti dei patterns sepolti in grandi masse di dati. Se, per esempio, si trasforma in suono l’andamento di un fenomeno ondulatorio, è molto più facile sentirne il ritmo, scoprire moduli che si ripetono, etc.
Ora, sempre secondo BBC News, gli studiosi dell’Università di Catania (in particolare il prof. Roberto Barbera e il suo team) stanno lavorando sugli infrasuoni emessi dal vulcano, altrimenti inaubili, trasformandoli in musica con un metodo messo a punto dal prof. Domenico Vicinanza dell’Istituto Italiano di Fisica Nucleare.
Il sistema, schematizzato in figura, campiona un’onda sismica e genera una serie di note interpretando il valore dell’asse y come altezza. Ignoro se il campionamento sia sincrono o meno (non ho molti dati), ma, a giudicare dall’immagine, ni. Quando l’onda procede quasi come una retta, le note sembrano piazzate a intervalli regolari, ma c’è una certa attenzione a particolari punti corrispondenti a picchi, flessi, cambiamenti di pendenza, eccetera. Sembra cioè tenere d’occhio i cambiamenti nel valore della derivata, che esprime la pendenza della curva.
Musicalmente il sistema è piuttosto banale, però bisogna ricordare che il suo scopo non è produrre una sinfonia né tantomeno scrivere musica, bensì evidenziare moduli melodici e/o ritmici e in questo senso l’applicazione è corretta.
Ricordo, invece, che, negli anni ’60, il compositore americano Gordon Mumma utilizzò proprio dei sismogrammi per comporre i suoi brani della serie Mograph. In questo caso, la conversione era finalizzata alla musica. Direttamente dal suo sito, ecco un estratto di Medium Size Mograph (1963) per pianoforte a 4 mani e elaborazione elettronica (esecutori Gordon Mumma e Robert Ashley).