Winter Leaves

Winter Leaves è una investigazione sui rapporti che intercorrono fra armonia e timbro.

La tecnica base è quella di costruire dei suoni i cui spettri abbiano una valenza armonica. Uno dei sistemi per ottenerlo è quello di creare suoni le cui componenti spettrali abbiano dei rapporti accordali.
Winter Leaves, infatti, si basa su 3 suoni, ognuno formato da 5 sinusoidi le cui frequenze hanno fra loro un intervallo fisso. Tutti suoni sono costruiti sulla stessa fondamentale (47.5 Hz, circa SOL). Le altre 4 componenti hanno rapporti di 2 (8va) nel primo suono, di 2.24 (9a magg.) nel secondo e 2.8856 (intervallo non temperato corrispondente a una 11ma crescente) nel terzo.
I 3 suoni base, quindi, hanno le seguenti componenti sinusoidali:
  • Rapporto 2 -> 47.5, 95, 190, 380, 760 (8ve sovrapposte)
  • Rapporto 2.24 -> 47.5, 106.4, 238.3, 533.9, 1195.9 (9ne sovrapposte)
  • Rapporto 2.8856 -> 47.5, 137.1, 395.5, 1141.3, 3293.4 (11me cresc. sovrapposte).

A questo punto è chiaro che spettri di questo tipo possiedono sia una valenza timbrica che armonica. Nel primo caso il suono è associato alla consonanza perfetta, nel secondo, a una dissonanza interpretabile nell’ambito del sistema temperato e nel terzo a una dissonanza non temperata.

Continua a leggere

Nabaz’mob

In questo post, la storia di Nabaztag è tratta da Wikipedia, con qualche nota del sottoscritto.

La parola Nabaztag (“նապաստակ” che in lingua armena significa coniglio), indica il coniglio wifi ideato da Rafi Haladjian e Olivier Mével e prodotto, nel 2005 dalla compagnia francese Violet.

Alto 23 centimetri, per un peso di 418 grammi, dispone di svariate abilità, tra le quali dare le previsioni del tempo, declamare le ore, segnalare eventuali messaggi di posta elettronica e illuminarsi per mezzo di LED colorati, muovendo le orecchie e pronunciando imprevedibili battute. Può inoltre riprodurre messaggi testuali ed MP3. Con il passare del tempo altri svariati servizi sono stati implementati. È inoltre scomparsa la distinzione tra servizi base e servizi su abbonamento, anch’essi divenuti gratuiti. Esistono anche dei servizi sviluppati dagli stessi utenti (musica, notizie, curiosità) denominati “Nabcast”.

L’oggetto, venduto a partire da giugno 2005, alla fine di ottobre 2006 aveva raggiunto i 35.000 esemplari nella sola Francia. A fine 2006 viene introdotto un modello più avanzato, il Nabaztag:tag che supporta lo streaming mp3 via internet, ha un microfono per ricevere comandi vocali e un lettore di RFID con tag personalizzati per ricevere comandi. Questo modello, inoltre, è dotato di tecnologia PULL, ossia può interrogare il server di propria iniziativa. A settembre 2007 sono presenti più di 180.000 Nabaztag in tutto il mondo.

Il 20 ottobre 2009 Violet, in difficoltà per una gestione dissennata, è acquistata dal noto software publisher Mindscape che immette sul mercato un modello ancora più avanzato chiamato Karotz con webcam e maggiori capacità di memoria. Ben presto, però, anche quest’ultimo entra in crisi. Il 29 luglio 2011 Mindscape comunica lo spegnimento dei server di gestione di Nabaztag creando in un solo colpo 180.000 orfani, ma rende pubblico il codice per la gestione dei “coniglietti” multimediali, rendendo possibile a diverse comunità utenti di creare dei nuovi server. Comunque, le varie comunità utente hanno privilegiato soluzioni alternative, basate sui progetti Opensource OpenJabNab, Nabizdead e OpenNag, più semplici da implementare dell’originale server (denominato “burrow”, con riferimento alle tane dei conigli selvatici) Violet/Mindscape ma privi del supporto per le vecchie unità Nabaztag di prima generazione. Le comunità utente sorte nell’immediata chiusura del server “ufficiale” supportano infatti i soli Nabaztag:tag.

In seguito Mindscape è acquisita da Aldebaran Robotics, azienda specializzata in robot giocattolo ed amatoriali, che vende ad esaurimento le scorte di Karotz senza sviluppare il prodotto, malgrado esso avesse incorporati e ben visibili evidenti agganci per accessori ed estensioni. Infine, con un annuncio scioccante del suo CEO comunica lo spegnimento dei server dei Karotz per il 18 febbraio 2015 segnando, così, la fine del progetto la cui esistenza resta affidata ai server amatoriali.

Dalla creazione di Nabaztag, Antoine Schmitt ne è il designer comportamentale e Jean-Jacques Birgé il designer sonoro. Insieme, hanno anche composto l’Opera Nabaz’mob per 100 conigli tra loro comunicanti, che ha vinto il Prix Ars Electronica Award of Distinction Digital Musics 2009 e di cui si può vedere un estratto in questo video.

 

Il video in questa pagina è un estratto più breve, ma l’audio è migliore.

Arras

Barry Truax – Arras (1980) – for four computer-synthesized soundtrackstruax

Author’s notes:

Arras refers metaphorically to the heavy wall hanging or tapestry originally produced in the French town of the same name. The threads running through the material form both a background and, when coloured, a foreground pattern as well, even when they are the same thread. In the piece there is a constant ambiguity between whether a component sound is heard as part of the background texture, or whether it is heard as a foreground event because, in fact, the frequencies are the same. The listener can easily be drawn into the internal complexity of the constantly shifting pattern, but at the same time can sense the overall flow of the entire structure.

Arras is a continuously evolving texture based on a fusion of harmonic and inharmonic spectra. The large-scale structure of the piece follows a pattern of harmonic change going from closely spaced odd harmonics through to widely spaced harmonics towards the end. Each harmonic timbre is paired with an inharmonic one with which it shares specific harmonics, and with which it overlaps after each twenty-five second interval. This harmonic/inharmonic structure forms a background against which specific events are poised: shorter events, specific high pitches which otherwise would be imbedded in the overall timbre, and some percussive events. However, all frequencies found in the foreground events are the same as those in the background texture; hence the constant ambiguity between them.

Arras received an honourable mention in the computer music category of the 1980 International Competition of Electroacoustic Music sponsored by the G.M.E.B. in Bourges, France.

Arras is available on the Cambridge Street Records CD Pacific Rim, and the RCI Anthology of Canadian Electroacoustic Music.

More technical notes here.
Listen to Arras excerpt.

Androgyny

Barry Truax – Androgyny (1978) – a spatial environment with four computer-synthesized soundtracks

Author’s notes:

Androgyny explores the theme of its title in the abstract world of pure sound. The piece, however, is not programmatic; instead, the dramatic form of the piece has been derived from the nature of the sound material itself. In this case, the sound construction is based on ideas about an acoustic polarity, namely “harmonic” and “inharmonic,” or alternatively, “consonance” and “dissonance.” These concepts are not opposed, but instead, are related in ways that show that a continuum exists between them, such as in the middle of the piece when harmonic timbres slowly “pull apart” and become increasingly dissonant at the peak intensity of the work. At that point a deep harmonic 60 Hz drone enters, similar to the opening section, but now reinforced an octave lower, and leads the piece through to a peaceful conclusion. High above the drone are heard inharmonic bell-like timbres which are tuned to the same fundamental pitch as the harmonic drone, a technique used throughout the work with deeper bells.

The work is designed to sound different spatially when heard on headphones. Through the use of small binaural time delays, instead of intensity differences, the sounds are localized outside the head when heard through headphones. Various spatial movements can also be detected, such as the circular movement of the drones in the last section of the piece.

Although not intended to be programmatic, the work still has environmental images associated with it, namely those suggested by the I Ching hexagram number 62, Preponderance of the Small, with a changing line to number 31, Wooing. The reading describes a mountain, a masculine image, hollowed out at the top to enclose a lake, a feminine image. The two exist as a unity. Thunder is heard close by, clouds race past without giving rain, and a bird soars high but returns to earth.

Androgyny is available on the Melbourne album Androgyne and the Cambridge Street Records CD, SFU 40.

Production Note:

The work was realized with the composer’s POD6 and POD7 programs for computer sound synthesis and composition at Simon Fraser University. All the component sounds are examples of frequency modulation (FM) synthesis, generated in binaural stereo, with time differences between channels. However, considerable analog mixing in the Sonic Research Studio at Simon Fraser University produced the resulting complex work.

Listen to Androgyny

David Wessel

WesselPer ricordare David Wessel, scomparso il 13 Ottobre a 73 anni, mettiamo alcune testimonianze.

Per primo, il suo brano del 1977, Anthony.

In realtà Wessel è sempre stato un ricercatore più che un compositore, difatti la sua produzione musicale è rara. Anthony è un tipico brano costruito con fasce sonore in dissolvenza incrociata ed è stato uno dei primi pezzi realizzati con le macchine per la sintesi in tempo reale costruite da Peppino Di Giugno all’IRCAM.

Quella utilizzata qui è la 4A del 1975, uno dei primi modelli, il primo ad andare oltre lo stadio di prototipo. Si trattava di un processore capace di generare in tempo reale fino a 256 oscillatori digitali in wavetable (cioè con forma d’onda memorizzata e quindi con contenuto armonico definito dall’utente) con relativo inviluppo di ampiezza. Nonostante il fatto che gli oscillatori non si potessero connettere fra loro, era un passo avanti notevole per quegli anni perché, con i sistemi analogici dell’epoca, era già difficile arrivare a 10 oscillatori (per maggiori particolari vedi le voci 4A e Giuseppe Di Giugno sul blog di Alex Di Nunzio).

Se da punto di vista quantitativo la 4A era un grande passo avanti, la qualità del suono era limitata dal fatto che non si potevano realizzare dei metodi di sintesi a spettro sonoro variabile (per es. con filtri o modulazione di frequenza), se non ricorrendo all’additiva. In Anthony, Wessel aggira questo limite evitando una caratterizzazione melodica del materiale sonoro, affidandosi, invece, a grandi cluster in lenta mutazione armonica.

Att.ne: il brano inizia molto piano. Inoltre con gli altoparlantini del computer ne sentite metà.

Un secondo contributo video riguarda l’attività di David Wessel come ricercatore interessato principalmente all’interazione uomo – macchina, tanto che nel 1985 aveva fondato all’IRCAM un dipartimento di ricerca dedicato allo sviluppo di software musicale interattivo.

Qui viene mostrato lo SLAB, uno dispositivo di controllo composto da una serie di touch pad sensibili alla posizione e alla pressione. Ogni pad trasmette al computer informazioni relative alla posizione xy del dito che lo preme e alla pressione esercitata. Il flusso di dati è ethernet, non MIDI, per cui le misure sono accurate e la risposta è veloce (questa storia del superamento del MIDI ce la porteremo dietro per la vita; per citare Philip Dick, la cavalletta ci opprime). Maggiori dati tecnici sullo SLAB, qui. Per gli impazienti, nel video la performance inizia a 2:40.

Max Mathews & John Chowning

In questa lunga conversazione con Curtis Roads, compositore e musicologo, Max Mathews & John Chowning ripercorrono varie tappe della storia della Computer Music.

A partire dagli anni ’50, Max Mathews ha creato, per primo, una serie di software che hanno permesso all’elaboratore di produrre e controllare il suono: si tratta della serie MUSIC I, II, III … fino al MUSIC V, largamente utilizzato, fra gli altri da Jean Claude Risset per sintetizzare alcuni famosi brani degli anni ’70, ma soprattutto per fare ricerca e rendere palesi le possibilità offerte dall’audio digitale.

John Chowning, percussionista, compositore e ricercatore, è invece noto come l’inventore della modulazione di frequenza (FM) per la sintesi del suono, tecnica sviluppata negli anni ’70 e poi ceduta a Yamaha che l’applicò in una lunga serie di sintetizzatori commerciali fra cui il DX7 (1983) che resta tuttora il synth più venduto nella storia.

Il video include anche una performance della pianista Chryssie Nanou che esegue Duet for One Pianist di J. C. Risset, in cui il pianista suona un pianoforte a coda Yamaha dotato di MIDI controller e duetta con un computer che “ascolta” l’esecuzione e a sua volta invia comandi MIDI allo stesso strumento i cui tasti iniziano ad abbassarsi da soli in un 4 mani con fantasma.

Riverrun

Barry Truax – Riverrun (1986), musica acusmatica di sintesi in 4 canali.

Recentemente Truax ha prodotto una revisione del brano spazializzato su 8 canali. Qui possiamo ascoltare soltanto l’edizione mixata in stereo disponibile in CD sul sito dell’autore.

Riverrun è realizzato completamente in sintesi granulare, un sistema in cui il suono, anche se sembra continuo, è composto da piccoli grani sonori la cui durata può andare da un centesimo a circa un decimo di secondo. Quando la durata dei grani è lunga (> 50 msec) è più facile distinguerli e quindi si percepisce la natura granulare del suono. Con durate comprese fra i 10 e i 30 msec (da 1 a 3 centesimi di secondo) e con grani parzialmente sovrapposti, invece, la granularità non è percepibile e si ottengono suoni continui.

La sonorità dell’insieme dipende sia dal suono dei singoli grani che dalla loro distribuzione in frequenza. La manipolazione di questi due parametri, oltre alla durata e alla densità, permette di ottenere un vasto spettro sonoro in evoluzione.

L’idea della sintesi granulare risale a Xenakis ed è stata implementata su computer da Curtis Roads nel 1978. Qui alcune note tecniche di Barry Truax.

Qui, le note dell’autore su Riverrun.

RIP Max Mathews

maxheadPessima giornata il 21 Aprile. All’età di 84 anni si è spento Max Mathews. Non un vero compositore, ma praticamente l’inventore della computer music, avendo ideato e scritto, nel 1957, il primo software che permettesse ad un elaboratore di emettere suoni.

Per raccontarlo con le sue parole:

Computer performance of music was born in 1957 when an IBM 704 in NYC played a 17 second composition on the Music I program which I wrote. The timbres and notes were not inspiring, but the technical breakthrough is still reverberating. Music I led me to Music II through V. A host of others wrote Music 10, Music 360, Music 15, Csound and Cmix. Many exciting pieces are now performed digitally. The IBM 704 and its siblings were strictly studio machines – they were far too slow to synthesize music in real-time. Chowning’s FM algorithms and the advent of fast, inexpensive, digital chips made real-time possible, and equally important, made it affordable.

Starting with the Groove program in 1970, my interests have focused on live performance and what a computer can do to aid a performer. I made a controller, the radio-baton, plus a program, the conductor program, to provide new ways for interpreting and performing traditional scores. In addition to contemporary composers, these proved attractive to soloists as a way of playing orchestral accompaniments. Singers often prefer to play their own accompaniments. Recently I have added improvisational options which make it easy to write compositional algorithms. These can involve precomposed sequences, random functions, and live performance gestures. The algorithms are written in the C language. We have taught a course in this area to Stanford undergraduates for two years. To our happy surprise, the students liked learning and using C. Primarily I believe it gives them a feeling of complete power to command the computer to do anything it is capable of doing.

Eccolo in un video del 2007 mentre ascolta Daisy Bell (A Bycicle Build for Two), eseguita e cantata nel 1961 da un elaboratore IBM 7094 grazie al software di John Kelly, Carol Lockbaum e dello stesso Mathews.

Orchidée

Questo interessante sistema chiamato Orchidée, realizzato all’IRCAM da Grégoire Carpentier and Damien Tardieu con la supervisione del compositore Yan Maresz, è in grado di fornire una o più orchestrazioni di un suono dato.

In pratica, significa che un compositore può arrivare con un suono e farlo analizzare al sistema che poi fornisce varie combinazioni di suoni orchestrali che approssimano la sonorità data.

Un esempio, tratto da quelli forniti dall’IRCAM, dice più di molte parole. Qui potete ascoltare:

Si tratta di Computer Aided Orchestration (orchestrazione assistita) ed è un ulteriore esempio di come il computer possa ormai affiancare il compositore in molte fasi del suo lavoro.

Il sistema si basa su un largo database di suoni orchestrali che sono stati analizzati e catalogati in base a una serie di descrittori sia percettivi (es. brillantezza, ruvidità, presenza, colore, …) che notazionali (strumento, altezza, dinamica, etc).

Un algoritmo genetico individua, poi, varie soluzioni, ognuna ottimizzata rispetto a uno o più descrittori, il che significa che non esiste una soluzione ideale, ma più di una, ciascuna delle quali si avvicina molto ad un aspetto del suono in esame, risuldando, invece, più debole sotto altri aspetti. Per esempio, si potrebbe ottenere un insieme che approssima molto bene il colore del suono, ma non la sua evoluzione. Sta poi al compositore scegliere quella che gli appare più funzionale al proprio contesto compositivo.

La descrizione completa del sistema Orchidée si trova qui. Vari altri esempi si possono ascoltare qui.

Traiettoria…deviata

Ecco la prima parte di Traiettoria, le altre essendo Dialoghi e Contrasti, di Marco Stroppa.

Note di programma

Traiettoria per pianoforte e suoni generati al computer è un ciclo di tre pezzi Traiettoria…deviata, Dialoghi, Contrasti, composta tra il 1982 e 1984 e della durata di circa 45′.

Traiettoria può essere considerato come un concerto per pianoforte e orchestra, dove i suoni sintetici sostituiscono l’orchestra. In questo lavoro, il rapporto tra suoni sintetici e suoni concreti del pianoforte a volte è progettato in modo che si fondano in un’unica immagine e sensazione. Timbri inarmonici e armonia, in altre parole, “illusione” e realtà, tendono spesso a fondersi e trasformarsi l’una nell’altra.

La disposizione del pianoforte e del dispositivo di amplificazione è stata studiata con molta attenzione. I suoni sintetici provengono sia da un altoparlante posizionato sotto il piano che interferisce con la tavola armonica e le corde, sia da più altoparlanti disposti intorno al pubblico. A seconda alla soluzione scelta il volume del suono è ridotto oppure circonda il pubblico da tutti i lati in un impulso costante per tutto il pezzo. Per ragioni di equilibrio anche il pianoforte è amplificato.

La regia sonora di Traiettoria in concerto serve a modellare il suono sintetico in base alla partitura e alle caratteristiche acustiche della sala. Deve essere assicurata da un musicista la cui importanza è pari a quella del pianista.

Tiny Jungle

Un altro video di Jon Weinel su cui, stavolta, abbiamo qualche informazione

This is my latest audio-visual work, a collage of different material created in Maya, Jitter, After Effects, Flash etc. It Uses hand-drawn animation as source material. The basic concept is to explore the idea of entoptic phenomena (spiral dot patterns experienced in altered states of consciousness), through the audio visual medium.

Action rituelle

coverAgnes Heginger, soprano e Karlheinz Essl, elettronico, hanno registrato poco meno di un anno fa, all’Essl Museum in Vienna, questo disco, dal titolo Out of the Blue.

Sei brani, di cui tre collaborazioni e tre soli. Lo stile è generalmente quello della free music europea, virtuoso, ma spesso destrutturato e a tratti manierista (esiste, naturalmente, un manierismo anche nella free music).

Ma c’è almeno un brano, questo Action rituelle, inciso in duo, che, a mio avviso, trascende il genere e conquista per la sua intensità.

Il disco è distribuito dalla netlabel portoghese XS Records e liberamente scaricabile anche dall’Internet Archive.

Agnes Heginger e Karlheinz Essl – Action rituelle

Il triangolo

Nathan Davis, nato in Alabama nel 1973, è percussionista e compositore elettroacustico. Fra le altre cose, è cofondatore del duo elettroacustico violoncello e percussioni Odd Appetite dal cui sito traiamo questo estratto da Diving Bell (2002), un brano in cui tutti i suoni sono generati “dall’umile e meraviglioso” triangolo.

È il tipo di brano che, prima o poi, invito i miei studenti a fare perché lavorare su una singola sonorità aiuta a capire che c’è un universo complesso all’interno di ogni suono.

Note dell’autore:

Diving Bell invites the listener to delve deeply into the sound of the humble and magnificent triangle. By striking the triangles at different points and with different materials, and by using a handheld microphone, I extract and re-sculpt single overtones that are present in the overall sound of the instruments, hidden sounds that are normally only apparent when one holds the triangle up to their ear, like a tuning fork. With the help of tape delay modeling software, I layer these rich overtones in a structured improvisation.

Il brano fa parte del CD Memory Spaces.

1-Bit Symphony

I casi della vita sono strani.

Tristan Perich sta facendo fortuna con il suo concetto di musica a 1 bit che non è altro che la ripresa, pari pari, della sintesi sonora utilizzata nei primissimi personal computer (il Commodore 64 era già più avanti, ma le sonorità sono simili).

In pratica, si utilizza un piccolo circuito con un flip-flop, cioè un dispositivo che alterna 1 e 0 a intervalli di tempo regolari, generando un’onda quadra. Se, per esempio, il flip-flop alterna uno e zero 440 volte al secondo, si genera un’onda quadra a 440 Hertz, cioè un LA, che però conterrà solo gli armonici dispari (così è l’onda quadra) e un po’ di quelli pari ma solo per distorsione armonica, con effetti temibili già sulle consonanze più lontane di 8va e 5a (ovvero praticamente tutte).

Questo sistema era usato nei vecchi pc per pilotare il piccolo e nefando altoparlante di sistema perché richiede risorse minimali. Era semplice, quindi, costruire circuitini di costo bassissimo in grado di produrre molte onde quadre a frequenze diverse contemporaneamente, come nel famigerato SID del Commodore 64 (il cui nome tecnico era 8580 SID chip, dove la sigla stava pomposamente per Sound Interface Device).

Peraltro, questo tipo di sintesi è già utilizzato da anni dai vari gruppetti che fanno quella che viene chiamata 8-bit music, proprio perché si rifà alle vecchie macchine a 8 bit.

Ora Perich ha ripreso questo disturbante suono realizzando varie installazioni e composizioni, alcune delle quali sono anche strutturalmente interessanti ma, per le mie orecchie, sono indelebilmente marchiate dal suono del C64 che mi fa venire voglia di piazzare un bel filtro passa-basso a valle di tutto l’audio.

La cosa buffa è che, quando eravamo piccoli, di cose del genere ne abbiamo fatte a tonnellate, ridendoci sopra. Però, ripeto, i casi della vita sono strani e oggi la gente trova un gran gusto nel farsi trapanare le orecchie dalle onde quadre.

Non so che dire. Esiste, nella vita, il fascino delle cose antiche riprese e riviste, che è anche quello che spinge della gente a suonare musica antica con strumenti d’epoca e corde di budello che però, proprio perché d’epoca, non stanno accordati per più di 5 minuti, costringendo l’interprete a suonare stonato per metà del pezzo (NB: non ce l’ho con la musica antica ma solo con quelli che fanno come sopra).

Ecco alcuni esempi fra i migliori (ne trovate altri sul suo sito), nonché il video della temibile 1-Bit Symphony.

  • Between the Silences for nine strings, nine-part 1-bit music (2008)
  • All Possible Paths for clarinet, acoustic guitar, cello, double bass, marimba, piano, 5-channel 1-bit electronics (2008), commissioned by Bang on a Can’s People’s Commissioning Fund

Mortuos Plango Vivos Voco

Jonathan Harvey: “Vivos Voco” (1980) for concrete sounds processed by computer.

Born in Warwickshire in 1939, Jonathan Harvey was a chorister at St Michael’s College, Tenbury and later a major music scholar at St John’s College, Cambridge. He gained doctorates from the universities of Glasgow and Cambridge and also studied privately (on the advice of Benjamin Britten) with Erwin Stein and Hans Keller. He was a Harkness Fellow at Princeton (1969-70).

An invitation from Boulez to work at IRCAM in the early 1980s has resulted in eight realisations at the Institute, or for the Ensemble Intercontemporain, including the tape piece Mortuos Plango Vivos Voco, Ritual Melodies for computer-manipulated sounds, and Advaya for cello and live and pre-recorded sounds. Harvey has also composed for most other genres: orchestra (including Madonna of Winter and Spring, Tranquil Abiding and White as Jasmine), chamber (including three String Quartets, Soleil Noir/Chitra, and Death of Light, Light of Death, for instance) as well as works for solo instruments.

analyzed by Pierre Boulez

Marco Stroppa: the video

After the Marco’s master, I publish here the link to the IRCAM video about his works for solo instrument and chamber electronics.

Here you can find excerpts from …of silence, hist whist and I will not kiss you f.ing flag. You can also see Arshia Cont, the creator of the astonishing score and tempo following software Antescofo.

I already posted this link on Dec. 12 2009, but now I point out again because here the students can see some applications of the systems that Marco described in his lecture.

In any case, the video is very interesting.

PLOrk

Princeton Laptop Orchestra (PLOrk) is a visionary new ensemble of laptopists, the first of its size and kind.

Founded in 2005 by Dan Trueman and Perry Cook, PLOrk takes the traditional model of the orchestra and reinvents it for the 21st century; each laptopist performs with a laptop and custom designed hemispherical speaker that emulates the way traditional orchestral instruments cast their sound in space. Wireless networking and video augment the familiar role of the conductor, suggesting unprecedented ways of organizing large ensembles.

In 2008, Trueman and Cook were awarded a major grant from the MacArthur Foundation to support further PLOrk developments. Performers and composers who have worked with PLOrk include Zakir Hussain, Pauline Oliveros, Matmos, So Percussion, the American Composers Orchestra, and others. In its still short lifetime, PLOrk has performed widely (presented by Carnegie Hall, the Northwestern Spring Festival in Chicago, the American Academy of Sciences in DC, the Kitchen (NYC) and others) and has inspired the formation of laptop orchestras across the world, from Oslo to Bangkok.

“Connectome” Performed by the Princeton Laptop Orchestra (PLOrk) (Director Jeff Snyder), PLOrk[10] concert, May 3 2017 Composition: Mike Mulshine Neuron model audio synthesis: Jeff Snyder and Aatish Bhatia Projection: Drew Wallace

Excerpt: Autopoetics I by Ted Coffin: listen to or watch a video

Other multimedia materials here.

Old School Computer Music

Csound BlogDr. Boulanger has put up a wondeful collection of Csound mp3s at Csounds.com.

Download 4csoundCompositions.zip (99.1 MB)

The pack comes with 20 tracks, with everything from ambient to minimal to cheesy techno to synth-generated halloween sound fx.  All of the original source code is included in case you are curious to see what these compositions look like in their original state.

From The Csound Blog

Excerpts:

140 chars of music

A twitter. An SMS. That’s the challenge. Writing a piece of electronic digital music using only 140 chars of code.

It started as a curious project, when live coding enthusiast and Toplap member Dan Stowell started tweeting tiny snippets of musical code using SuperCollider. Pleasantly surprised by the reaction, and “not wanting this stuff to vanish into the ether” he has recently collated the best pieces into a special download for The Wire.

Of course, to satisfy such a constraint, you need a very compact programming language and SuperCollider is the best choice (see also here). It is an environment and programming language for real time audio synthesis and algorithmic composition. It provides an interpreted object-oriented language which functions as a network client to a state of the art, realtime sound synthesis server.

SuperCollider was written by James McCartney over a period of many years, and is now an open source (GPL) project maintained and developed by various people. It is used by musicians, scientists and artists working with sound. For some background, see SuperCollider described by Wikipedia.

You can download the code snippets here. Note that many of these pieces are actually generative, so if you have a working SuperCollider environment and re-run the source code you get a new (i.e. slightly different) piece of music.

Some excerpts:

The artists notes are here.

Anthèmes 2

Anthèmes 2 (1997), by Pierre Boulez, has evolved from Anthèmes, a substantially shorter piece for solo violin.

Andrew Gerzso has for many years been the composer’s chief collaborator on works involving live electronics and the two men regularly discuss their work together. He describes the way in which all the nuances in this nucleus of works were examined in the studio in order to find out which elements could be electronically processed and differentiated. As a result, the process of expanding these works is based not only on abstract structural considerations (such as the questions as to how it may be possible to use electronic procedures to spatialize and to merge or separate specific complexes of sound),but also on concrete considerations bound up with performing practice: in a word, on the way in which the instrument’s technical possibilities may be developed along figurative lines.

As a result, Anthèmes 2 provides us with both an analysis and an interpretation of Anthèmes: it is a text in its own right and the same time a sub-text of the earlier piece.

[notes from the CD]

Pacific Fanfare

coverPacific Fanfare (1996) è un breve brano di Barry Truax composto per celebrare il 25° anniversario della Vancouver New Music Society e del World Soundscape Project, di cui abbiamo parlato qualche giorno fa.

È basata su 10 “soundmarks” registrati nell’ambito del WSP vari anni prima (chi ascolta le nostre proposte sonore riconoscerà subito la sirena della nave con cui iniziava “Entrance to the Harbor” nel post di cui sopra.

Il concetto di “soundmarks” è fondamentale nel lavoro del WSP e designa quei suoni che caratterizzano un determinato paesaggio sonoro. Questi suoni riproposti in Pacific Fanfare sia nella loro versione originale che elaborata mediante riduonatori digitali (una riverberazione artificialmente colorata) e time-stretching (allungamento temporate del suono di solito senza alterazione della frequenza).

Il brano è incluso nel CD Islands, acquistabile sul sito dell’autore.

Longplayer: un brano lungo 1000 anni

Longplayer is a one thousand year long musical composition. It began playing at midnight on the 31st of December 1999, and will continue to play without repetition until the last moment of 2999, at which point it will complete its cycle and begin again. Conceived and composed by Jem Finer, it was originally produced as an Artangel commission, and is now in the care of the Longplayer Trust.

Longplayer can be heard in the lighthouse at Trinity Buoy Wharf, London, where it has been playing since it began. It can also be heard at several other listening posts around the world, and globally via a live stream on the Internet.

Longplayer is composed for singing bowls – an ancient type of standing bell – which can be played by both humans and machines, and whose resonances can be very accurately reproduced in recorded form. It is designed to be adaptable to unforeseeable changes in its technological and social environments, and to endure in the long-term as a self-sustaining institution.

At present, Longplayer is being performed by a computer. However, it was created with a full awareness of the inevitable obsolescence of this technology, and is not in itself bound to the computer or any other technological form.

Although the computer is a cheap and accurate device on which Longplayer can play, it is important – in order to legislate for its survival – that a medium outside the digital realm be found. To this end, one objective from the earliest stages of its development has been to research alternative methods of performance, including mechanical, non-electrical and human-operated versions. Among these is a graphical score for six people and 234 singing bowls. A live performance from this score is being prepared for September 2009. See here for more information.

Longplayer was developed and composed by Jem Finer between October 1995 and December 1999, with the support and collaboration of Artangel.

  • A 56kbps live stream can be heard by clicking (or right-clicking) here:
    Per ascoltare un live stream del brano, cliccate qui:

Sonorità Liquide

Sonorità Liquide è una proposta del gruppo Handmade Music, dedito alla progettazione e costruzione di strumenti elettroacustici e sculture sonore.

Il filmato, che spiega anche il funzionamento delle sculture sonore, si riferisce alla rassegna del 2007, rinnovata, con altre installazioni, pochi giorni fa, il 15 luglio, sempre alla Casa da Música a Porto.

I patch di composizione algoritmica e di sintesi sono sviluppati in Max/MSP mentre i sensori sono stati elaborati basandosi sull’Arduino board. Ideazione e realizzazione di Rui Penha con la collaborazione di Luís Girão.

Melodie Rituali

Ritual Melodies è una composizione del 1990 di Jonathan Harvey realizzata all’IRCAM.

A dispetto delle sonorità, alcune delle quali a un primo ascolto possono sembrare strumentali, si tratta invece di pura computer music. Tutti i suoni sono generati e manipolati dal computer. Nessuno è stato campionato, se non per fini di analisi e risintesi.

Questo procedimento è stato attuato per creare un materiale sonoro in continua trasformazione. I suoni base del brano sono risintesi di strumenti di origine cerimoniale e/o rituale (es: oboe indiano, campane tibetane, flauto di bambù, frammenti vocali di diversa origine…) le cui caratteristiche vengono poi alterate in fase di sintesi per creare suoni intermedi.

A mio avviso è decisamente un bel brano, sia dal punto di vista compositivo che da quello tecnico. L’unico lato che per me è un po’ disturbante è costituito da alcune sonorità di tipica marca IRCAM, come quel maledetto scampanio sulle frequenze alte, che sarà anche bello a un primo ascolto, ma ormai si trova in quasi tutti i brani realizzati laggiù.

Neptune

manouryPhilippe Manoury è attualmente uno dei più importanti ricercatori e compositori francesi. Attivo da anni nell’area della musica elettroacustica, avvalendosi della collaborazione di Miller Puckette, ha scritto alcuni dei primi lavori per strumento e elaborazione effettuata totalmente in tempo reale (Jupiter, 1987 e Pluton, 1988, entrambi inseriti nel ciclo Sonus ex Machina).

Qui vi presentiamo due estratti di Neptune (op. 21, 1991) per tre percussionisti ed elettronica. I percussionisti suonano 2 vibrafoni MIDI, tam-tam e marimba e sono elaborati e contrappuntati in tempo reale.

Duetto per un pianista

Susanne Achilles performs the Duet for One Pianist by Jean Claude Risset, an important name in computer music.

This piece, composed at MIT in 1989, is for disklavier and computer. The disklavier is a grand piano made by Yamaha, whose mechanics are motorized and can be controlled via MIDI. So the disklavier can play pieces on its own, but, more interestingly, a pianist’s performance data (pitches, dynamics, durations) can be sent, in real time, to a computer which can react by driving the disklavier according to rules formalized in software by the composer.

This is what happens in Duet for One Pianist, hence the title. The piece is divided into eight sketches in which the computer manipulates and sends back the material performed by the performer based on the principles cited in the title of each movement: Double, Mirror, Extensions, Fractals, Stretch, Resonances, Up Down and Metronome.

The pianist is accompanied, like a shadow, by a second, invisible performer, who plays his own piano with lowering keys.

En écho

Un estratto da un brano di Philippe Manoury (En écho, 1993-1994, testo di Emmanuel Hocquart) in cui il computer genera suoni in tempo reale seguendo l’esecuzione del soprano. In pratica il computer è in grado di ascoltare l’interprete e a fronte della partitura, riesce a seguirlo nonostante eventuali rallentando o accelerando.

In questo caso tutto è reso più semplice dal fatto che l’esecutore è un solista e non un ensemble, quindi si deve seguire una sola voce, ma anche così non si tratta di una faccenda banale.

Written in collaboration with programmer Miller Puckette, “En Echo” uses real time score-following software which responds to the singer’s voice. In Emille Hocquart’s text, a young woman recollects a heated affair.

“The computer is automatically following the voice,” Mr. Manoury explained. “It functions as what we call a ‘score-follower.’ The singer sings in tempo, or with an acceleration, and the computer synchronizes to make synthetic sounds that are deduced from alterations in the voice — not precalculated, but produced in real time. If the voice modifies the vowels, for example, it modifies the electronics.” Messrs. Manoury and Puckette have worked since the latter moved from the Massachusetts Institute of Technology in 1989 and joined Mr. Manoury at the famous studios at IRCAM (l’Institut de Recherche et de Coordination Acoustique/Musique), which Pierre Boulez founded in Paris.

 

Multiplication Virtuelle

Un brano per percussioni e live electronic di Mei-Fang Lin (1973), compositrice cinese di Taiwan attualmente negli USA.

Note di programma:

Multiplication Virtuelle (2003) is a musical work written for solo percussionist performing on a wide array of pitched and non-pitched acoustic instruments. Audio signals taken from microphones placed in close proximity to each instrument are used to control a real-time computer-based electroacoustic component. The percussionist plays and interacts with the electronic part that is triggered by the percussion attacks. The intensity of each attack is used to control the playback rate of the stored samples; in other words, the pitch of the sample is determined by how loud the percussionist plays. The execution of the electroacoustic score is managed by the computer in real-time using Max/MSP, a graphical software environment for music, audio, and multimedia.

As implied by the piece’s title and instrumental setup, ideas of circular motion and repeated patterns come into play in both the surface material in the music and the global structure of the piece itself. Specific rhythmic patterns are repeated (or, in a more visual sense, multiplied) before moving on to new but related patterns. The structure proceeds in a circular motion in how its rhythmic patterns evolve. The piece also thwarts the audience’s musical expectations by blurring the distinction between sample-based sounds and their acoustic counterparts. This effect is enhanced by carefully establishing and then breaking the connections between simultaneous visual and aural events.

Multiplication Virtuelle is dedicated to the percussionist Jean Geoffroy, who premiered the piece in 2004 in Paris. The work was funded in part by the Composer Assistance Program of the American Music Center.

  • Mei.Fang Lin, Multiplication Virtuelle (2003) per percussioni e live electronic.
    Jean Geoffroy percussioni

Six Japanese Gardens

Sei brevi brani per percussioni ed elettronica di Kaija Saariaho. In ciascuno dei brani l’autrice sviluppa un aspetto ritmico particolare collegato a quello specifico materiale musicale.

Le sonorità strumentali sono arricchite da suoni naturali, canti rituali e altri suoni percussivi eseguiti dal percussionista giapponese Shinti Ueno, registrati e modificati dall’elettronica.

Kaija Saariaho – Six Japanese Gardens (1993/95)

Lo Spazio tra le Pietre

sonogramma

Ho composto Lo Spazio tra le Pietre per la manifestazione “Musica e Architettura”, organizzata dal Conservatorio Bonporti di Trento e Riva del Garda il 18/10/2008.

Dal mio punto di vista, i rapporti fra musica e architettura non si esauriscono nella pur importante questione della progettazione di luoghi per la musica, ma hanno aspetti più profondi che investono certamente la composizione e arrivano fino alla fruizione.
Se, da un lato, un edificio esiste staticamente nello spazio, non può essere apprezzato nella sua totalità senza un intervallo temporale. La sua forma globale non è mai evidente nella sua interezza, nemmeno dall’alto. Si forma nella memoria di chi ci si è avvicinato da molti lati e ha visto la sua forma perdersi, mentre i particolari costruttivi e poi i materiali diventano via via più evidenti. Analogamente, un brano musicale esiste staticamente in una qualche forma di notazione e si svela nel tempo. L’ascolto temporale ne evidenzia, via via, la struttura interna, gli elementi costitutivi e i dettagli.
Così, è possibile pensare un brano musicale come un oggetto statico e un edificio come una struttura dinamica. Ma è da un punto di vista compositivo che le analogie si fanno più strette.

Sotto l’aspetto compositivo, quando lavoro con suoni completamente sintetici che non derivano da alcun suono reale, come nel caso di questo brano, generalmente seguo un approccio top-down. Dapprima immagino una forma, spesso in termini spaziali e poi costruisco i materiali e i metodi con cui realizzarla.
Così, come nell’architettura, per me comporre un brano significa costruire i materiali di base partendo dalle componenti minime e modulare il vuoto temporale e spaziale che li separa, cercando di assemblarli in un ambiente coerente.
I parametri che manipolo, come nella musica strumentale, sono temporali e spaziali, ma, a differenza della musica strumentale, si estendono a livello microscopico. Così, la manipolazione del tempo non si ferma alle durate delle note, ma arriva ai tempi di attacco e decadimento delle singole componenti di ogni suono (le parziali armoniche o inarmoniche). In modo analogo, a livello spaziale il mio intervento non si limita all’intervallo, che determina il carattere delle relazioni armoniche, ma si spinge fino alla distanza fra le parziali che formano un singolo suono, determinandone, in una certa misura, il timbro.
Il punto, però, è che, nella mia visione della composizione, molto più importanti dei materiali sono i metodi. Anzi, anche gli stessi materiali, alla fine, derivano dai metodi. Il mio problema, infatti, non è mai quello di scrivere una sequenza di suoni e svilupparla, bensì quello di generare una superficie, una “texture”, avente una precisa valenza percettiva.
In realtà, questa è texture music. Anche quando credete di ascoltare un singolo suono, in realtà ne ascoltate minimo 4/5. E non parlo di parziali, bensì di suoni complessi, ognuno dei quali ha da un minimo di 4 parziali, fino a un massimo di circa 30. Per esempio, il SOL# iniziale, che nasce dal nulla e poi viene circondato da altre note (FA, SIb, FA#, LA) è composto da 8 suoni con pochissima differenza di altezza che si rinnovano ogni 0.875 secondi. Così si crea la percezione di un suono singolo, ma dotato di un certo tipo di movimento interno.
Texture music, micro-polifonia che si muove molto al di sotto della soglia del temperamento base 12. In effetti, qui lavoro con una ottava divisa in 1000 parti uguali e in certi punti del brano coesistono migliaia di suoni complessi contemporaneamente per generare un singolo “crash”.
Ne consegue che non è possibile scrivere a mano una “partitura” del genere. Ho ideato e programmato personalmente un software compositivo chiamato AlGen (AlgorithmGeneration) mediante il quale io piloto le masse e il computer genera il dettaglio (i singoli suoni).
AlGen esisteva già nel 1984 ed era stato utilizzato per comporre Wires, a cui questo brano deve molto, ma, mentre a quei tempi era solo un blocco di routine che il sottoscritto aveva collegato al programma di sintesi Music360 di Barry Vercoe (l’antenato diretto dell’odierno CSound), per questa occasione è stato completamente riscritto ed è un software a se stante. Nella versione odierna incorpora varie distribuzioni probabilistiche, metodi seriali, algoritmi lineari e non-lineari per controllare meglio le superfici generate e soprattutto la loro evoluzione (per una volta, i frattali non c’entrano, per ora).
Ciò nonostante, AlGen non incorpora nessuna forma di “intelligenza”. Non prende decisione in base all’armonia, al contesto, eccetera. È un cieco esecutore di ordini. Pesca in un insieme probabilistico o calcola funzioni e genera note, ma fortunatamente non pensa e non decide. Quelli che tratta sono puri numeri e non sa nemmeno se sta calcolando durate, densità o frequenze.
Di conseguenza la completa responsabilità del risultato finale è attribuibile solo al sottoscritto. Quando ascolto una massa sonora  e riguardo i numeri che ho passato al programma, capisco perfettamente perché suona così ed è solo per quello che posso fare le necessarie correzioni.

Lo Spazio tra le Pietre è stato composto nel mio studio in settembre – ottobre 2008 e sintetizzato in 4 canali mediante CSound. Algoritmo di sintesi: FM semplice.
Partitura CSound generata grazie al software di composizione assistita AlGen realizzato dall’autore.

L’intero brano è pensato come una struttura spaziale. Il suo skyline è evidente del sonogramma a inizio pagina e la sua struttura. come alternanza di forme, pieni e vuoti, è ben visibile nell’ingrandimento di un frammento di circa 1 minuto (qui sotto, come al solito potete cliccare sulle immagini per ingrandirle).

Mauro Graziani – Lo Spazio tra le Pietre (2008), computer music

Dimenticavo: con le normali cassettine da computer ne sentite all’incirca la metà.

sonogramma frammento

Nocturne

Nocturne by Gordon Green
an improvisation embellished in real time with MIDI processing software, uses the resonance of the piano to create a still, nocturnal atmosphere wherein different harmonies can be mulled over in a leisurely way. The software embellished the improvisation by cycling through repeating sets of intervals, and fragments were recalled and varied as the improvisation unfolded. The original idea for this came from the bird-call transcriptions in Olivier Messiaen’s piano music, which often use more sophisticated variations of similar techniques.

Gordon Green’s (b. 1960) varied influences include the work of Charles Ives, Morton Feldman, and Olivier Messiaen, as well as Indian music, cartoon music, and John Philip Sousa marches. His music combines the expressivity of improvised gestures with the sonic capabilities of electronics, and is informed by his work as a painter and software developer.

A native of Boston, Massachusetts, Green studied music at Vassar College in Poughkeepsie, New York and computer art at the School of Visual Arts in New York City, with additional studies at the Berklee College of Music, Juilliard School, Mannes College of Music, and New York University. His principal teachers were Rudolph Palmer and Richard Wilson. Green has been commissioned by pianist Frederick Moyer, the Ethos Percussion Group, and Schween-Hammond Duo, and supported by the Jerome Foundation, Millay Colony, and W.K. Rose Fellowship in the Creative Arts. His music can be found on the Capstone, Centaur, and JRI labels; his recent release, Serpentine Sky, is a surround-sound recording of music for multiple computer-controlled pianos.

Gordon Green – Nocturne (2001), for piano and computer-controlled Disklavier grand piano – Gordon Green performer

Miya Masaoka

masaoka laser kotoMiya Masaoka presenta se stessa come

musician, composer, sound artist – has created works for koto and electronics, Laser Koto, field recordings, laptop, video and written scores for ensembles, chamber orchestras and mixed choirs. In her pieces she has investigated the sound and movement of insects, as well as the physiological response of plants, the human brain and her own body. Within these varied contexts her performance work investigates the interactive, collaborative aspects of sound, improvisation, nature and society.

In effetti è attiva in molti campi cha vanno dalla musica per koto (anche elettrificato e in versione laser), alla musica per ensembles, al field recording e alla sperimentazione con piante e onde cerebrali, come potete vedere guardando i suoi video.

Qui vi presentiamo un estratto da For Birds, Planes & Cello. Come dice il titolo, si tratta di una composizione che utilizza una serie di field recording di aerei e uccelli. I due strati sonori sono mediati dal violoncello che agisce come elemento unificante. In questo estratto di 5 minuti (l’unico liberamente disponibile: il CD è distribuito dalla sua etichetta SolitaryB), l’azione del violoncello è limitata a lunghi suoni, più o meno armonici che si pongono come trait d’union fra le due registrazioni.

Hammerklavier

No, non si tratta della sonata 29 op. 106 di Ludwig Van, ma di un recente lavoro elettroacustico di Massimo Biasioni, qui in versione Jekyll & Hyde.

Il brano, originariamente quadrafonico, è basato su campioni registrati all’interno di un pianoforte a coda. Lo strumento non è suonato in maniera convenzionale, i campioni sono stati ottenuti percuotendo, pizzicando o sfregando con oggetti le corde e il corpo dello strumento, allo scopo di ottenere le risonanze del pianoforte piuttosto che suoni con altezza definita.

Il mezzo elettronico è stato poi utilizzato per analizzare e risintetizzare tali suoni complessi, estraendone di volta in volta determinate caratteristiche, esplorando la zona che va dal rumore al suono intonato, modificando l’attacco del suono su modello di una corda pizzicata, disponendo infine il materiale derivato nello spazio quadrifonico e assemblandolo lungo lo spazio temporale allo scopo di costruire un forma organica.
I software usati sono Max/MSP e ProTools. La durata è di undici minuti.

Qui lo ascoltate in streaming (att.ne: inizia molto piano). Potete scaricare l’intero CD “Inside the instruments (l’instrument outragè)”, con altri 4 brani, dal sito dell’autore.

Massimo Biasioni – Hammerklavier – 2008

Soft Morning, City!

Un altro brano di Tod Machover dopo Light. Anche questo è distribuito da AGP da cui potete scaricarlo in formato FLAC.

Si tratta di Soft Morning, City! che presentiamo con le note dell’autore, è per soprano, contrabbasso e suoni elettronici sia sintetici che ottenuti elaborando gli strumenti. Il testo è tratto dal monologo di Anna Livia Plurabelle, nel Finnegan’s Wake di James Joyce.

Soft Morning, City! (which was commissioned by the Calouste Gulbenkian Foundation for Jane Manning and Barry Guy) presents its qualities more immediately and directly. This is due mostly to the presence of James Joyce’s text, the final monologue from Finnegans Wake. The particular passage that I have chosen here has interested me for many years. Coming at the end of this monumental epic, it is a melancholy and moving swansong of the book’s main female character, Anna Livia Plurabelle. Now appearing as a washerwoman, she recalls her life as she walks along Dublin’s River Liffey at daybreak. Many different planes of narrative are interlaced, the mundane with the spiritual, the sexual with the aesthetic, the personal with the universal. Joyce achieves the closest thing to the temporal parallelism of music by snipping each layer of narrative into short, constantly varying and overlapping phrases. The great beauty is that Joyce creates not the eclectic choppiness that such a procedure might suggest, but a majestic form of tremendous power and sweep. It seems to me that Joyce achieves this through an organization of the over-all sound of the passage in an unprecedented way. Listening to a reading-aloud of the text, one is carried by its cadences, tidal flows, crescendos and dvina-awavs, even while being sometimes onlv half-sure . , of the meaning of certain words. it is the rare combination of polyphonic verbal richness with inherent sonic structure that makes it ideal for a musical setting.

My setting takes the form of an aria, though a rather extended and elaborate one. Attention is always focused on the soprano, who alternates between long melodic lines and short interjections that change character quickly. The double bass lends support to the soprano, provides harmonic definition and melodic counterpoint, and often adds musical commentary.

The computer tape helps to amplify, mirror and extend the myriad reflections of Anna Livia, but at the same time acts as a unifying force. To emphasize closeness to the live performers, a new process is added whereby soprano and double bass music is directly transformed by the computer, producing at times sounds that seem to fuse the two into one musical image.

The work begins in stillness, with the soprano evoking the atmosphere of morning, surrounded by an ethereal transformation of her own breath. With the entrance of the double bass, various different strands of the textual polyphony are introduced one after the other, each with characteristic music. As the sonority of the tape gets closer to that of the live instruments, the musical layers begin to overlap with greater rapidity. In the lengthy middle section, many different layers are superimposed so that at the moment of greatest intensity and complexity a new unity is formed.

From this plateau, the rest of the work is built. Quiet communion is achieved between soprano and bass. This leads directly to a long melodic section, with soprano accompanied by a continuous harmonic progression in bass and tape.

After a final moment of lonely reflection (“O bitter ending!…”), an enormous wave washes over Anna Livia and carries her away. A quiet coda uses delicate, distant images to recall the stillness of the work’s opening. A chapter is closed, a deep breath taken, and we prepare, led by Joyce’s Liffey (“Riverrun…”), to begin again.

Tod Machover, Soft Morning, City!, per soprano, contrabbasso e suoni elettronici.
Testi tratti da “Finnegans Wake” di James Joyce
Jane Manning, soprano; Barry Guy, Double Bass. Computer parts realized at IRCAM, Paris

Light

AGP ha ripubblicato recentemente alcune incisioni di musica elettronica degli anni ’80 che trovate nell’Internet Archive ai numeri 106, 107, 108 da dove potete scaricarle in FLAC.

Il 107 contiene due brani di Tod Machover, compositore americano del 1953 molto attivo anche in area multimediale.

Qui vi faccio ascoltare Light, un pezzo del 1979 scritto per l’Ensemble Intercontemporain più due flussi elettronici preregistrati ottenuti mediante elaborazione di suoni strumentali.

L’autore spiega in dettaglio il brano:

The piece takes its title from a quote by Rider Haggard, the English fantasy author: “Occasionally one sees the Light, one touches the pierced feet, one thinks that the peace which passes understanding is gained – then all is gone again.” The atmosphere and expressive content of the work reflect these words, which also influenced the choice and treatment of musical materials.

From a single melody (heard in entirety only at the climax of the piece) a complex polyphony is developed that creates layers of simultaneously overlapping, shifting musical planes, like independent clouds that move each at its own speed, and part momentarily to allow rays of light to pass through. Each of these layers is characterized by a different musical elaboration of the same basic materials. The largest contrast is between the instrumental ensemble (14 players) and two separate computer-generated 4track tapes. Each of these tapes represents a different (and opposing) approach to the elaboration of musical structures. The first uses traditional instrumental timbres and playing techniques as a starting point and transcends the “normal” by extending past the human capacities. The second explores microscopic details of sounds derived from these same instruments, although the connection between the two worlds is made clear only gradually during the course of the piece.

The instrumental ensemble is musically situated between these two approaches. It is divided into four sub groups (string quartet; woodwind quartet; piano, harp and wood/skin percussion; trumpet, trombone and metal percussion), each of which develops a distinct set of musical tendencies, and possesses a clear timbral identity. The piece was conceived for IRCAM’s experimental concert hall, or Espace de Projection, where all acoustical and physical characteristics are controllable. The instrumental ensembles are placed in the four comers of the room, on platforms, with the public seated in the middle. Tape I is distributed through 4 speakers, one placed over each instrumental group, thus emphasizing the “instrumental” departure point for this tape’s electronic sound. Tape II emanates from a set of 4 speakers placed on the ceiling of the hall, to exaggerate the separateness of this ethereal and delicate murmuring that develops gradually into the thunderous crashes that mark the climax of the piece.

The piece begins by emphasizing the distinctness of all its various layers. Each group follows its own developmental principles in a section that culminates in a series of cadenzas. After each group has had its say, all material is combined in the large solo of Tape I which builds until the first crashes of Tape II. In the quiet that follows, a new, more homogeneous order is built up gradually, and leads to a final section of delicate chamber music, where equality prevails among all the diverse elements. The main harmony of the piece provides the basis for a meditative coda, which dissolves into the isolation and bareness of the final piano notes, a shadow of the defiance and brilliance shown by the same instrument at other points of the piece.

The musical form is dramatic, the expressive mood quite romantic, and both are founded on a conviction of mine: that faced with todafs confusing kaleidoscope of equally valid parallel lifestyles, cultures and ideas, the only response is to search quietly but resolutely for a deeper truth, perhaps out of nostalgia for a lost simplicity, but hopefully from a courage aid belief in a “new order” of synthesis and unity behind the surface choas. It is this search that I have tried to portray in Light.

Tod Machover – Light (1979), per ensemble e suoni elettronici
Members of the Ensemble InterContemporain with two computer-generated tapes. Conducted by Peter Eötvös. Computer parts realized at IRCAM, Paris.

Seroton

This new sound output [Seroton EP] of Sascha Neudeck (biochemist and musician, based in vienna) is to carry out a test by the idea of different drone-interpretations. It is more a collection of different quotations in doing with such these topics. The result is quite different to his previous work, which was more noise- and random-oriented. This new section is quite a try to arrange such these things – from totally abstract elements to poetic narrative parts. Different ideas come out from an abstractness and get into an often sparely melodic part – otherwise a changeover from the lightness of sound into a deep and noise drone, which is interrupted by fragement spikes of sound. Neudeck is working only with software, sinus generators, self produced sound equipment and lately with the sidrassi organ (totally crazy tool). So I am often surprised by the result, when it sounds like a field recording. But when I see, how he works in his nerdy laboratory, I understand that his output can irritate.

[ liner notes by Heribert Friedl / photo by Sascha Neudeck ]

Some excerpts

The Seven Wonders of the Ancient World

La particolarità di questo brano di David Jaffe risiede nel fatto che si tratta di un concerto per pianoforte in cui la parte del solista è eseguita da un percussionista (Andrew Schloss) che controlla un pianoforte midi (il disklavier) per mezzo del Radio Drum.

Si tratta di un dispositivo i cui battenti inviano a quattro sensori disposti agli angoli della tavola, la loro posizione in termini di X, Y e Z.
Questi dati vengono utilizzati per calcolare il punto di impatto e la forza, ma vengono inviati sempre, non solo quando i battenti toccano la superficie. Ne consegue che un apposito software può anche utilizzare il movimento dei battenti in aria per ricavarne dei dati che vengono poi trasformati in note midi inviate al disklavier.
Si tratta quindi di una interfaccia che rileva il movimento, non di una semplice percussione digitalizzata.

Il brano è scritto per pianoforte e ensemble strumentale (mandolin, guitar, harp, harpsichord, bass, harmonium and 2 percussionists). Ecco un estratto.

Varie note sul brano sul sito di Jaffe.

Il Nome

Il Nome è un brano elettroacustico (soprano + nastro magnetico) composto da Richard Karpen nel 1987 su testo tratto da “Il nome di Maria Fresu” di A. Zanzotto + un verso dall’Orfeo di Monteverdi.
Maria Fresu è una delle 84 persone uccise nell’attentato del 2 agosto 1980 alla stazione di Bologna. Non è rimasto niente di lei (Karpen è stato in Italia vari anni e ha lavorato al CSC a Padova).

Il materiale sonoro è formato in gran parte da elaborazioni della voce del soprano. Vengono utilizzati anche vetri rotti, una singola nota di violino e un tam-tam. Le elaborazioni sono in buona parte cambi di altezza o stretching temporale senza alterazione dell’altezza (in qualche caso la durata è stata estesa fino a 20 volte l’originale) + filtraggi. Grande attenzione è posta alla sovrapposizione e concatenazione dei frammenti.

Testi

E il nome di Maria Fresu
continua a scoppiare
all’ora dei pranzi
in ogni casseruola
in ogni pentola
in ogni boccone
in ogni rutto – scoppiato e disseminato –
in milioni di dimenticanze, di comi, bburp.
A. Zanzotto, Il nome di Maria Fresu, da Idioma, Milano, Mondadori, 1986

Tu sei morta, mia vita, ed io respiro?
Tu mi hai lasciato per mai più tornare, ed io rimango?

No.
Monteverdi – Orfeo

Richard Karpen – Il Nome (1987), per soprano e banda magnetica – J. Bettina, soprano

Richard Karpen is a native of New York, where he studied composition with Charles Dodge, Gheorghe Costinescu, and Morton Subotnick. He received his doctorate in composition from Stanford University, where he also worked at the Center for Computer Research in Music and Acoustics (CCRMA).
He has been the recipient of many awards, grants and prizes including those from the National Endowment for the Arts, the ASCAP Foundation, the Bourges Contest in France, and the Luigi Russolo Foundation in Italy.
Founding Director of the Center for Digital Arts and Experimental Media (DXARTS) at the University of Washington.

Les Chants de l’Amour

Gérard Grisey – Les Chants de l’Amour (1982-84), per 12 voci e nastro magnetico

La scrittura delle parti affidate ai 12 cantanti è basata non su delle parole, ma su vocali e dittonghi estratti dalla analisi spettrale della frase “I love you”. Vengono inoltre utilizzate alcune interiezioni sonore come sospiri, scoppi di risa o frammenti della stessa frase.

La parte elettronica è stata sintetizzata all’IRCAM mediante il programma “Chant”, la cui caratteristica è di creare delle vocali artificiali molto malleabili che agiscono a tratti da collante, a tratti come elemento complementare o di contrasto rispetto alle voci reali.

Intelligentemente, Grisey utilizza le vocali anche nella maggioranza delle parti cantate, riuscendo così a fondere le voci reali con i materiali generati dal programma.

“Vedo i suoni come fasci di forza orientati nel tempo, infinitamente mobili e fluttuanti”.

La lezione di Stimmung è presente e Grisey la supera, inventando un brano estremamente mobile, con una scrittura a tratti quasi pirotecnica, che unisce i tratti fondamentali dello spettralismo a una notevole forza espressiva.

Tombeau de Messiaen

Un altro omaggio a Messiaen, dopo la sua scomparsa, stavolta da parte di Jonathan Harvey: si tratta di “Tombeau de Messiaen”, per piano accompagnato da una elettronica misurata ma essenziale formata in gran parte da un pianoforte sintetico accordato sulla scala naturale, che interviene a modificare in modo più o meno sensibile i suoni dello strumento.

Jonathan Harvey – Tombeau de Messiaen (1994) per pianoforte e parte elettronica

Mycenae Alpha

Lo stesso d21d34c55, di cui al post precedente, ha realizzato anche questo video sulla partitura di Mycenae Alpha (1978) di Xenakis.

Qui però non si tratta di un disegno a posteriori, ma è il disegno stesso che genera il suono tramite una sorta di sintesi granulare. Uno dei software del CEMAMu (Centre d’Etudes de Mathématiques et Automatique Musicales), il centro di ricerca in cui Xenakis lavorava, permette, appunto, questo.

Si tratta dell’UPIC (Unité Polyagogique Informatique du CEMAMu), una tavoletta grafica 75×60 cm su cui il compositore può disegnare delle forme che vengono trasformate direttamente in suono dal computer a cui è collegata (e a mio avviso, spesso e volentieri sembra che si preoccupi più del disegno che del suono).

S.N.O.W.

S.N.O.W. [Sound, Noise & Other Waves] è il nome ufficiale del nostro duo.

Qui accanto trovate la cover del nostro primo CD. Cliccatela e una volta arrivati sulla S.N.O.W. page, ascoltatevi pure il background, ma cliccate anche una delle lettere S.N.O.W. che portano alle pagine interne con ascolto integrale.
_______________________________

S.N.O.W., [Sound, Noise & Other Waves], is the official name of our free improvisation duo.

Here on the sidebar is our first CD cover. Click to jump to the site, then click the S.N.O.W. characters to enter.

Line up:
Federico Mosconi: electric guitar, sound effect processing
Mauro Graziani: Max/MSP laptop, keyboard

Obscuritas Luminosa, Lux Obscura

Un affascinante e recente brano di Konstantinos Karathanasis, trentaduenne compositore greco emigrato negli USA.

Costruito intorno ad un’unica altezza (SI), questo pezzo, per sei strumenti e suoni elettronici, è come un singolo, ultra concentrato raggio di luce che penetra il vuoto, il silenzio, con gli strumenti che agiscono come delle lenti, dei prismi, che gradualmente modificano il colore del suono allargandolo alle note vicine e via via più lontane.
________________________

The following excerpt from an old Greek text of the 7th century AD encapsulates the central idea of the piece: ‘… And as all things come from the One, from the mediation of the One, so all things are born from this One by adaptation …’ There is one pitch (B), which as a single ultra-concentrated beam of light penetrates the vacuum, the silence. The instruments and the electronics act like lenses and prisms that slowly change the color of this single B and magnify it to the neighboring pitch areas. Since this process is gradual, like wine fermentation, special attention is given to various subtle changes, in the micro-intervals and their beatings, attacks and dynamics, colors and textures. Once the magnifications of the single pitch expand to its partials, the fermentation process is accelerated and new dimensions open up that at some point incorporate even chance.

The role of the electronics is to unify the instrumental fragments and thus to provide coherence through the piece. Although obscure at the beginning, progressively the computer becomes the seventh player in the ensemble, and after a certain point it develops in to an all-inclusive ocean, where the instruments swim, like exotic fish. The electronics are based in various real-time techniques in Max/MSP, mostly live phase vocoding and sampling, infinite decay reverbs, flangers, harmonizers, and granular synthesis.

Konstantinos Karathanasis – Obscuritas Luminosa, Lux Obscura (2005)
for flute, clarinet, viola, cello, piano, percussions, electronics

Barry Truax

Truax ca. 1949La prima volta che incontrai Barry Truax (nella foto a 2/3 anni), al CSC di Padova alla fine degli anni ’70, io ero uno studente e lui era già un guru della computer music che aveva al suo attivo il POD (un software per la composizione assistita da computer) e una convincente sistematizzazione compositiva della modulazione di frequenza e alcuni brani che la sfruttavano, come Sonic Landscape e Androginy.

Già allora Truax utilizzava il concetto di “paesaggio sonoro”, mutuato dal World Soundscape Project, di cui aveva fatto parte nel 1973. Più tardi sarebbe stato uno dei pionieri della sintesi granulare.

I lavori di Barry che preferisco sono le composizioni elettroacustiche in cui dà prova di grande maestria nella elaborazione del suono, come “Basilica“, interamente basato sulle sonorità delle tre campane della cattedrale di Quebec City (Truax è canadese, vive e lavora a Vancouver) o “Temple“, elaborazione di campioni vocali registrati nella riverberante cattedrale di San Bartolomeo, a Busetto (Italia) o ancora “Steam“, dedicato alla grande varietà di fischietti e corni da nebbia che popolano il paesaggio sonoro del Canada. Nello stesso modo mi piacciono i suoi brani di sintesi, come “Arras“, ispirato agli arazzi dell’omonima città francese. (estratti audio sotto la parte in inglese)
_________________________________________

Truax from Wikipedia

Barry Truax (born 1947) is a Canadian composer who specializes in real-time implementations of granular synthesis, often of sampled sounds, and soundscapes. He developed the first ever implementation of real-time granular synthesis, in 1986, the first to use a sample as the source of a granular composition in 1987’s Wings of Nike, and was the first composer to explore the range between synchronic and asynchronic granular synthesis in 1986’s Riverrun. The real-time technique suites or emphasizes auditory streams, which, along with soundscapes, inform his aesthetic.
Truax teaches both electroacoustic music and computer music and acoustic communication at Simon Fraser University. He was one of the original members of the World Soundscape Project. His students include John Oswald.
_________________________________________

Barry Truax works excerpts (from the author’s site where you can listen to many other sound examples)

  • Basilica (1992) for two or eight digital soundtracks
  • Temple (opening) (2002) for eight digital soundtracks
  • Steam (2001) for alto flute and two digital soundtracks (Chenoa Anderson, alto flute)
  • Arras (1980) for four computer-synthesized soundtracks

L’Amour Outragè

Un bel brano elettroacustico di Massimo Biasioni tratto dal sito del DAW07 (Digital Art Weeks 2007) di Zurigo.

Il materiale di partenza usato per la composizione di “l’amour outragè” è la registrazione di un frammento tratto dalla “Platée” di Rameau eseguito dalla soprano Annamaria Calciolari, ed il titolo del brano si riferisce al testo di detto frammento.

La principale tecnica di sintesi usata è quella granulare, allo scopo di ottenere graduali passaggi da situazioni in cui altezza e timbro vocale sono indeterminati, a situazioni in cui la voce è perfettamente riconoscibile. Fra i parametri di sintesi più controllati uno è quello della durata dei grani: in caso di grani di durata molto corta (entro i 25 millisecondi) la sensazione uditiva di altezza si perde, per tornare percepibile con grani di durata superiore. Per la realizzazione del brano sono stati utilizzati i software Max/Msp e Pro-Tools. Esistono due versioni del brano: la versione principale quadrifonica, da utilizzare in eventuali esecuzioni pubbliche, ed una versione stereofonica su cd. La durata è di 10 minuti.

Massimo Biasioni è nato a Trento nel 1963, diplomato in violino, composizione, musica corale e direzione di coro, nonché musica elettronica. Ha composto lavori da camera e per orchestra, per strumenti tradizionali ed elettronici, video e musica teatrale. Alcune delle sue composizioni sono state eseguite in festival importanti, incise su CD e trasmesse via radio.

Massimo Biasioni – L’Amour Outragè – 2006

Floating Under Ice

Floating Under Ice (aka Contemplating the Great Whale).

Un nuovo brano del nostro duo.
È un pezzo un po’ trance in cui una serie di oggetti sonori fluttua su una fascia continua.

NB: ancora una volta devo sconsigliarvi di ascoltarlo con gli schifosissimi altoparlantini del computer. Devo dire che sono stato molto indeciso se metterlo qui o meno, pensando a come sarà ascoltato nella maggior parte dei casi. Il problema è che, con altoparlanti di bassa qualità, la fascia in background maschera vari suoni e alcune frasi spariscono quasi completamente; il pezzo perde di definizione e profondità e tutto si confonde. Piuttosto scaricatelo e mettetelo su un cd. Sorry.

A trance piece by our free improvisation duo.
Please don’t listen through the little computer’s speakers.

Federico Mosconi: electric guitar, various effect processing
Mauro Graziani: Max/MSP laptop

Floating Under Ice (aka Contemplating the Great Whale)
Floating Under Ice

Flora

Flora (1989) di Tod Machover è un brano audio/video in cui la parte audio è una sovrapposizione ed elaborazione della voce del soprano Karol Bennett.
Ne risulta un contrappunto dal sapore un po’ arcaico che evolve in nuvole di suoni elettronici e moduli ritmici.
Commissionato dalla Fuji Television, la parte video (non disponibile qui) è stata creata dal computer graphics artist Yoichiro Kawaguchi.

This piece was composed by Tod Machover in 1989, on commission from Fuji Television in Tokyo, and as a collaboration with Japanese computer graphics artist Yoichiro Kawaguchi. The music does not attempt to slavishly follow the content or progression of his video; rather it uses Kawaguchi’s astonishing mixture of abstract, synthetic images and organic, life-like evolution as a metaphor for the musical composition, where melodies become splintered, and voices turn into electronic clouds and snap back again into lively rhythmic punctuations.

Dancing in the S.N.O.W. with Tanks

Dancing in the S.N.O.W. with Tanks (danzando nella neve con carri armati) è un altro brano del nostro duo che accosta le vibrazioni delle campanine ortodosse a sonorità di tipo industriale.
Il titolo viene da un mio antico ricordo: quello di un monastero ortodosso con intorno un parco, la neve alta, il vento e il fruscio dei passi della gente che si avvia verso la chiesa mentre diverse campanine suonano ripetutamente creando un sottofondo continuo, ma fuori, subito al di là del parco, si muovono carri armati.
Alla fine, quando i carri hanno preso posizione e i soldati entrano nel parco, io e la mia interprete siamo gli unici rimasti fuori ed è calata una pace minacciosa, ma sensibile, tanto che anche i soldati avanzano lentamente, attenti a non fare rumore…
(ciò non toglie che immediatamente dopo sequestrano la mia macchina fotografica e riducono la pellicola a un groviglio di plastica accartocciata)

NB: con la banda ridotta degli schifosissimi altoparlantini del computer se ne sente metà (forse meno). Mancano i bassi e gli acuti estremi e sia le fasce continue che gli intermezzi rumoristici perdono completamente di profondità. Sorry.

Federico Mosconi: electric guitar, various effect processing
Mauro Graziani: Max/MSP laptop

Dancing in the S.N.O.W. with Tanks

This is a love song

Un altro assaggio del nostro duo di improvvisazione (che presto avrà bisogno di un nome; i suggerimenti sono graditi)
Questa volta è un brano un po’ più strutturato, nato nel giorno di S. Valentino (da cui il nome).
In seguito, abbiamo messo giù uno schema aperto del pezzo, definito in termini di suoni, azioni e atmosfere, tipo: inizia con dei tuoi suoni lunghi che io catturo, poi c’è un crescendo che si accumula in un delay e termina con questo segnale da cui si trae il ritmo successivo, etc.

Another piece from our improvised music duo (who needs a name; please suggest).
This is a more structured piece born in S. Valentine day (whence the title comes). We set up an open scheme of the piece, in terms of sounds, actions and atmospheres (the static beginning, then a crescendo ending with a well defined signal and so on).

Federico Mosconi: electric guitar, various effect processing
Mauro Graziani: Max/MSP laptop

This is a love song

Il Ghiaccio Sottile della Tua Fragile Mente

Un primo assaggio del nostro duo di improvvisazione (quasi) totale che vi proponiamo così come è uscito in una sera di maggio.
Un brano basato su un ostinato di tre note su cui si muovono sonorità più o meno lontane che, nella mia mente, evocano suggestioni nordiche e laghi ghiacciati.
Rilassatevi e ascoltate. I commenti sono graditi.

A first taste of our duo playing improvised music.
On a three notes riff, sounds comes from away and disappear like visions in the cold landscape of a frozen lake.
The piece is proposed as we improvised it some days ago. No further elaboration.
Relax and listen. Comments are welcome.

Personnel
Federico Mosconi: electric guitar, various effect processing
Mauro Graziani: Max/MSP laptop

Il Ghiaccio Sottile della Tua Fragile Mente

That Goodbye

Me

That Goodbye è una elaborazione del primo verso tratto dalla poesia “Do not go gently into that goodnight” di Dylan Thomas, letto dall’autore e tratto da una registrazione d’epoca.
L’idea di questo brano è di mettere a punto delle tecniche tali per cui la parola via via si “consumi” diventando lentamente puro suono.
Ora, una delle cose che mi hanno sempre affascinato è l’eco. Ma l’eco è una ripetizione (quasi) identica all’originale. In “That Goodbye” invece, ho adottato delle tecniche di elaborazione per cui l’eco ritorna modificato sempre di più ad ogni ripetizione.

Queste tecniche consistono nell’inserire il dispositivo di elaborazione all’interno del loop che genera l’eco. Quindi il suo effetto si accumula e cresce ad ogni ripetizione che così si trasforma sempre di più rispetto all’originale.

Questo modo di comporre è abbastanza lontano dalle tecniche tradizionali. Qui, io seleziono processi di elaborazione che generano risultati di lunga durata. La composizione, a questo punto, equivale alla scelta dei frammenti sonori e dei processi di elaborazione attraverso i quali devono ‘rotolare’.

Alcuni esempi [NB: per non costringevi ad ascoltare mezz’ora di esempi, tutti gli eventi sono accelerati rispetto al loro utilizzo nel brano, nel senso che il delay è molto breve (circa 1 sec.) e quindi la frequenza delle ripetizioni è elevata per cui la trasformazione avviene nel giro di pochi secondi].

  • Elemento di elaborazione: riverbero
    In questo esempio l’accumulo della riverberazione a ogni ciclo di loop produce un alone sempre più lungo e presente per cui il riverbero si “mangia” letteralmente il suono riducendolo alle sole frequenze di risonanza eccitate dall’input. Il collegamento con in frammento iniziale rimane in forma agogica. Sotto l’aspetto frequenziale, il risultato dipende sia dalle frequenze presenti nell’input che dalle frequenze di risonanza del riverbero.
  • Elemento di elaborazione: filtro
    Ad ogni ciclo di loop l’input è filtrato con un passa-banda a guadagno unitario, che lascia inalterata solo la freq. di centro-banda e attenua tutte le altre. Il suono, via via, si semplifica fino a lasciare una singola sinusoide.
  • Elemento di elaborazione: flanger
    L’effetto flanger applicato a un suono si incrementa a ogni ripetizione dando vita a battimenti di complessità crescente.
  • Elemento di elaborazione: ring modulator
    Il modulatore ad anello, con modulante piazzata su uno degli armonici, espande lo spettro e ne cambia il bilanciamento a ogni ciclo di loop.

That Goodbye inizia con la voce di Dylan Thomas che passa attraverso un banco di 8 filtri passa-banda e viene suddivisa in altrettanti flussi audio indipendenti che rapidamente si sfasano.

Ognuno di essi si infila, poi, in una linea di ritardo con tempo differenziato rispetto alle altre (da circa 5 a circa 12 secondi). Le frequenze di taglio e la larghezza di banda dei filtri non sono regolarmente spaziate, ma sono state tarate sulle bande di maggiore attività del segnale e vanno da 100 a 5000 Hz.

In questa prima fase l’elemento di elaborazione nel loop è principalmente il riverbero che allunga il suono e lo trasfigura distruggendo le parole e trasformandolo in bande frequenziali di altezza differenziata. Le bande basse e medie hanno tempi di riverbero più lunghi (fino a 6-8 secondi) e formano rapidamente delle fasce sonore di sfondo in evoluzione su cui si muovono gli elementi più acuti.

Nella seconda fase utilizzo come input alcuni dei punti finali di trasformazione della prima che vengono inviati a delay con processing differenziati, soprattutto flanger, filtri, ring modulator e inviluppi. Questi ultimi due sono i responsabili dell’emergere di suoni tipo campana derivanti dalla trasformazione spettrale delle bande medio-alte e dall’applicazione di un inviluppo che all’inzio è lineare e si fonde con il resto, ma diventa più sensibile e differenziato via via che si fa maggiormente percussivo.

Verso la fine della seconda fase parte una terza fase che inizia sulle bande basse a cui si applicano delay con ring modulator e pitch shift sulla scala armonica dando vita a una scalata agli armonici che si espande ad ogni ciclo di loop.

Questa parte si risolve in una quarta e ultima fase che si muove quasi all’indietro nel pezzo mandando in loop i risultati di varie convoluzioni fra la frase originale e e frammenti tratti dalle tre fasi precedenti creando una serie di fantasmi del frammento di partenza.

Mauro Graziani – That Goodbye (2002)

Nuovi Strumenti: Audiopad

Audiopad è stato sviluppato da due neolaureati del MIT (James Patten and Ben Recht) ed è una delle più interessanti interfacce musicali esistenti. Può essere utilizzato come strumento autonomo perché include una propria libreria di campioni audio ed è in grado sia di suonare che di eseguire operazioni di elaborazione audio nello stesso tempo, ma può anche essere usato come controller di un software di sintesi in realtime che gira su un computer esterno (come Max/Msp) oppure anche di una serie di sintetizzatori MIDI.
La cosa più interessante, però, è sicuramente l’interfaccia. Si basa su una grande superficie orizzontale su cui appaiono dei simboli, in modo simile a uno schermo piatto. Fin qui non ci sarebbe niente di diverso da un grande touch-screen, ma sulla superficie di Audiopad, gli esecutori muovono anche degli oggetti la cui posizione e movimento sono rilevati dal sistema.
Audiopad genera musica interpretando il movimento di tali oggetti e la loro posizione rispetto ai simboli che si trovano sullo “schermo”.
Ovviamente il tipo di simboli e il loro significato, così come l’interpretazione del movimento e della posizione degli oggetti, può cambiare in base al software. Per esempio, i simboli possono rappresentare diversi strumenti e gli oggetti delle parti strumentali. In tal caso, il fatto che l’esecutore muova un oggetto su un simbolo significa assegnare quella parte a quello strumento. Oppure un oggetto può essere un microfono e allora muovere uno strumento vicino/lontano dal microfono significa alzare/abbassare il suo volume.
Inoltre il display non è statico, ma può cambiare quando l’esecutore porta un oggetto in determinate posizioni aprendo così nuove vie di elaborazione audio o interpretazione. Il tutto è fluido perché guidato dal software.
Audiopad, quindi, è molto diverso dalla tradizionale interazione con il computer basata sul modello desktop, tastiera, mouse e per questa ragione è anche difficile da descrivere. In questo caso l’immagine vale decisamente più di 1000 parole, così vi invito a vedere questo buon filmato.
Sfortunatamente Audiopad non è ancora in vendita. L’unica cosa sul mercato che va in questa direzione è Lemur (ne parleremo), ma è solo un passo perché, per quanto carino, si tratta solo di un touch-screen programmabile, molto lontano dalla complessità di Audiopad.