Nabaz’mob

In questo post, la storia di Nabaztag è tratta da Wikipedia, con qualche nota del sottoscritto.

La parola Nabaztag (“նապաստակ” che in lingua armena significa coniglio), indica il coniglio wifi ideato da Rafi Haladjian e Olivier Mével e prodotto, nel 2005 dalla compagnia francese Violet.

Alto 23 centimetri, per un peso di 418 grammi, dispone di svariate abilità, tra le quali dare le previsioni del tempo, declamare le ore, segnalare eventuali messaggi di posta elettronica e illuminarsi per mezzo di LED colorati, muovendo le orecchie e pronunciando imprevedibili battute. Può inoltre riprodurre messaggi testuali ed MP3. Con il passare del tempo altri svariati servizi sono stati implementati. È inoltre scomparsa la distinzione tra servizi base e servizi su abbonamento, anch’essi divenuti gratuiti. Esistono anche dei servizi sviluppati dagli stessi utenti (musica, notizie, curiosità) denominati “Nabcast”.

L’oggetto, venduto a partire da giugno 2005, alla fine di ottobre 2006 aveva raggiunto i 35.000 esemplari nella sola Francia. A fine 2006 viene introdotto un modello più avanzato, il Nabaztag:tag che supporta lo streaming mp3 via internet, ha un microfono per ricevere comandi vocali e un lettore di RFID con tag personalizzati per ricevere comandi. Questo modello, inoltre, è dotato di tecnologia PULL, ossia può interrogare il server di propria iniziativa. A settembre 2007 sono presenti più di 180.000 Nabaztag in tutto il mondo.

Il 20 ottobre 2009 Violet, in difficoltà per una gestione dissennata, è acquistata dal noto software publisher Mindscape che immette sul mercato un modello ancora più avanzato chiamato Karotz con webcam e maggiori capacità di memoria. Ben presto, però, anche quest’ultimo entra in crisi. Il 29 luglio 2011 Mindscape comunica lo spegnimento dei server di gestione di Nabaztag creando in un solo colpo 180.000 orfani, ma rende pubblico il codice per la gestione dei “coniglietti” multimediali, rendendo possibile a diverse comunità utenti di creare dei nuovi server. Comunque, le varie comunità utente hanno privilegiato soluzioni alternative, basate sui progetti Opensource OpenJabNab, Nabizdead e OpenNag, più semplici da implementare dell’originale server (denominato “burrow”, con riferimento alle tane dei conigli selvatici) Violet/Mindscape ma privi del supporto per le vecchie unità Nabaztag di prima generazione. Le comunità utente sorte nell’immediata chiusura del server “ufficiale” supportano infatti i soli Nabaztag:tag.

In seguito Mindscape è acquisita da Aldebaran Robotics, azienda specializzata in robot giocattolo ed amatoriali, che vende ad esaurimento le scorte di Karotz senza sviluppare il prodotto, malgrado esso avesse incorporati e ben visibili evidenti agganci per accessori ed estensioni. Infine, con un annuncio scioccante del suo CEO comunica lo spegnimento dei server dei Karotz per il 18 febbraio 2015 segnando, così, la fine del progetto la cui esistenza resta affidata ai server amatoriali.

Dalla creazione di Nabaztag, Antoine Schmitt ne è il designer comportamentale e Jean-Jacques Birgé il designer sonoro. Insieme, hanno anche composto l’Opera Nabaz’mob per 100 conigli tra loro comunicanti, che ha vinto il Prix Ars Electronica Award of Distinction Digital Musics 2009 e di cui si può vedere un estratto in questo video.

 

Il video in questa pagina è un estratto più breve, ma l’audio è migliore.

Arras

Barry Truax – Arras (1980) – for four computer-synthesized soundtrackstruax

Author’s notes:

Arras refers metaphorically to the heavy wall hanging or tapestry originally produced in the French town of the same name. The threads running through the material form both a background and, when coloured, a foreground pattern as well, even when they are the same thread. In the piece there is a constant ambiguity between whether a component sound is heard as part of the background texture, or whether it is heard as a foreground event because, in fact, the frequencies are the same. The listener can easily be drawn into the internal complexity of the constantly shifting pattern, but at the same time can sense the overall flow of the entire structure.

Arras is a continuously evolving texture based on a fusion of harmonic and inharmonic spectra. The large-scale structure of the piece follows a pattern of harmonic change going from closely spaced odd harmonics through to widely spaced harmonics towards the end. Each harmonic timbre is paired with an inharmonic one with which it shares specific harmonics, and with which it overlaps after each twenty-five second interval. This harmonic/inharmonic structure forms a background against which specific events are poised: shorter events, specific high pitches which otherwise would be imbedded in the overall timbre, and some percussive events. However, all frequencies found in the foreground events are the same as those in the background texture; hence the constant ambiguity between them.

Arras received an honourable mention in the computer music category of the 1980 International Competition of Electroacoustic Music sponsored by the G.M.E.B. in Bourges, France.

Arras is available on the Cambridge Street Records CD Pacific Rim, and the RCI Anthology of Canadian Electroacoustic Music.

More technical notes here.
Listen to Arras excerpt.

Androgyny

Barry Truax – Androgyny (1978) – a spatial environment with four computer-synthesized soundtracks

Author’s notes:

Androgyny explores the theme of its title in the abstract world of pure sound. The piece, however, is not programmatic; instead, the dramatic form of the piece has been derived from the nature of the sound material itself. In this case, the sound construction is based on ideas about an acoustic polarity, namely “harmonic” and “inharmonic,” or alternatively, “consonance” and “dissonance.” These concepts are not opposed, but instead, are related in ways that show that a continuum exists between them, such as in the middle of the piece when harmonic timbres slowly “pull apart” and become increasingly dissonant at the peak intensity of the work. At that point a deep harmonic 60 Hz drone enters, similar to the opening section, but now reinforced an octave lower, and leads the piece through to a peaceful conclusion. High above the drone are heard inharmonic bell-like timbres which are tuned to the same fundamental pitch as the harmonic drone, a technique used throughout the work with deeper bells.

The work is designed to sound different spatially when heard on headphones. Through the use of small binaural time delays, instead of intensity differences, the sounds are localized outside the head when heard through headphones. Various spatial movements can also be detected, such as the circular movement of the drones in the last section of the piece.

Although not intended to be programmatic, the work still has environmental images associated with it, namely those suggested by the I Ching hexagram number 62, Preponderance of the Small, with a changing line to number 31, Wooing. The reading describes a mountain, a masculine image, hollowed out at the top to enclose a lake, a feminine image. The two exist as a unity. Thunder is heard close by, clouds race past without giving rain, and a bird soars high but returns to earth.

Androgyny is available on the Melbourne album Androgyne and the Cambridge Street Records CD, SFU 40.

Production Note:

The work was realized with the composer’s POD6 and POD7 programs for computer sound synthesis and composition at Simon Fraser University. All the component sounds are examples of frequency modulation (FM) synthesis, generated in binaural stereo, with time differences between channels. However, considerable analog mixing in the Sonic Research Studio at Simon Fraser University produced the resulting complex work.

Listen to Androgyny

David Wessel

WesselPer ricordare David Wessel, scomparso il 13 Ottobre a 73 anni, mettiamo alcune testimonianze.

Per primo, il suo brano del 1977, Anthony.

In realtà Wessel è sempre stato un ricercatore più che un compositore, difatti la sua produzione musicale è rara. Anthony è un tipico brano costruito con fasce sonore in dissolvenza incrociata ed è stato uno dei primi pezzi realizzati con le macchine per la sintesi in tempo reale costruite da Peppino Di Giugno all’IRCAM.

Quella utilizzata qui è la 4A del 1975, uno dei primi modelli, il primo ad andare oltre lo stadio di prototipo. Si trattava di un processore capace di generare in tempo reale fino a 256 oscillatori digitali in wavetable (cioè con forma d’onda memorizzata e quindi con contenuto armonico definito dall’utente) con relativo inviluppo di ampiezza. Nonostante il fatto che gli oscillatori non si potessero connettere fra loro, era un passo avanti notevole per quegli anni perché, con i sistemi analogici dell’epoca, era già difficile arrivare a 10 oscillatori (per maggiori particolari vedi le voci 4A e Giuseppe Di Giugno sul blog di Alex Di Nunzio).

Se da punto di vista quantitativo la 4A era un grande passo avanti, la qualità del suono era limitata dal fatto che non si potevano realizzare dei metodi di sintesi a spettro sonoro variabile (per es. con filtri o modulazione di frequenza), se non ricorrendo all’additiva. In Anthony, Wessel aggira questo limite evitando una caratterizzazione melodica del materiale sonoro, affidandosi, invece, a grandi cluster in lenta mutazione armonica.

Att.ne: il brano inizia molto piano. Inoltre con gli altoparlantini del computer ne sentite metà.

Un secondo contributo video riguarda l’attività di David Wessel come ricercatore interessato principalmente all’interazione uomo – macchina, tanto che nel 1985 aveva fondato all’IRCAM un dipartimento di ricerca dedicato allo sviluppo di software musicale interattivo.

Qui viene mostrato lo SLAB, uno dispositivo di controllo composto da una serie di touch pad sensibili alla posizione e alla pressione. Ogni pad trasmette al computer informazioni relative alla posizione xy del dito che lo preme e alla pressione esercitata. Il flusso di dati è ethernet, non MIDI, per cui le misure sono accurate e la risposta è veloce (questa storia del superamento del MIDI ce la porteremo dietro per la vita; per citare Philip Dick, la cavalletta ci opprime). Maggiori dati tecnici sullo SLAB, qui. Per gli impazienti, nel video la performance inizia a 2:40.

Max Mathews & John Chowning

In questa lunga conversazione con Curtis Roads, compositore e musicologo, Max Mathews & John Chowning ripercorrono varie tappe della storia della Computer Music.

A partire dagli anni ’50, Max Mathews ha creato, per primo, una serie di software che hanno permesso all’elaboratore di produrre e controllare il suono: si tratta della serie MUSIC I, II, III … fino al MUSIC V, largamente utilizzato, fra gli altri da Jean Claude Risset per sintetizzare alcuni famosi brani degli anni ’70, ma soprattutto per fare ricerca e rendere palesi le possibilità offerte dall’audio digitale.

John Chowning, percussionista, compositore e ricercatore, è invece noto come l’inventore della modulazione di frequenza (FM) per la sintesi del suono, tecnica sviluppata negli anni ’70 e poi ceduta a Yamaha che l’applicò in una lunga serie di sintetizzatori commerciali fra cui il DX7 (1983) che resta tuttora il synth più venduto nella storia.

Il video include anche una performance della pianista Chryssie Nanou che esegue Duet for One Pianist di J. C. Risset, in cui il pianista suona un pianoforte a coda Yamaha dotato di MIDI controller e duetta con un computer che “ascolta” l’esecuzione e a sua volta invia comandi MIDI allo stesso strumento i cui tasti iniziano ad abbassarsi da soli in un 4 mani con fantasma.

Riverrun

Barry Truax – Riverrun (1986), musica acusmatica di sintesi in 4 canali.

Recentemente Truax ha prodotto una revisione del brano spazializzato su 8 canali. Qui possiamo ascoltare soltanto l’edizione mixata in stereo disponibile in CD sul sito dell’autore.

Riverrun è realizzato completamente in sintesi granulare, un sistema in cui il suono, anche se sembra continuo, è composto da piccoli grani sonori la cui durata può andare da un centesimo a circa un decimo di secondo. Quando la durata dei grani è lunga (> 50 msec) è più facile distinguerli e quindi si percepisce la natura granulare del suono. Con durate comprese fra i 10 e i 30 msec (da 1 a 3 centesimi di secondo) e con grani parzialmente sovrapposti, invece, la granularità non è percepibile e si ottengono suoni continui.

La sonorità dell’insieme dipende sia dal suono dei singoli grani che dalla loro distribuzione in frequenza. La manipolazione di questi due parametri, oltre alla durata e alla densità, permette di ottenere un vasto spettro sonoro in evoluzione.

L’idea della sintesi granulare risale a Xenakis ed è stata implementata su computer da Curtis Roads nel 1978. Qui alcune note tecniche di Barry Truax.

Qui, le note dell’autore su Riverrun.

RIP Max Mathews

maxheadPessima giornata il 21 Aprile. All’età di 84 anni si è spento Max Mathews. Non un vero compositore, ma praticamente l’inventore della computer music, avendo ideato e scritto, nel 1957, il primo software che permettesse ad un elaboratore di emettere suoni.

Per raccontarlo con le sue parole:

Computer performance of music was born in 1957 when an IBM 704 in NYC played a 17 second composition on the Music I program which I wrote. The timbres and notes were not inspiring, but the technical breakthrough is still reverberating. Music I led me to Music II through V. A host of others wrote Music 10, Music 360, Music 15, Csound and Cmix. Many exciting pieces are now performed digitally. The IBM 704 and its siblings were strictly studio machines – they were far too slow to synthesize music in real-time. Chowning’s FM algorithms and the advent of fast, inexpensive, digital chips made real-time possible, and equally important, made it affordable.

Starting with the Groove program in 1970, my interests have focused on live performance and what a computer can do to aid a performer. I made a controller, the radio-baton, plus a program, the conductor program, to provide new ways for interpreting and performing traditional scores. In addition to contemporary composers, these proved attractive to soloists as a way of playing orchestral accompaniments. Singers often prefer to play their own accompaniments. Recently I have added improvisational options which make it easy to write compositional algorithms. These can involve precomposed sequences, random functions, and live performance gestures. The algorithms are written in the C language. We have taught a course in this area to Stanford undergraduates for two years. To our happy surprise, the students liked learning and using C. Primarily I believe it gives them a feeling of complete power to command the computer to do anything it is capable of doing.

Eccolo in un video del 2007 mentre ascolta Daisy Bell (A Bycicle Build for Two), eseguita e cantata nel 1961 da un elaboratore IBM 7094 grazie al software di John Kelly, Carol Lockbaum e dello stesso Mathews.

Orchidée

Questo interessante sistema chiamato Orchidée, realizzato all’IRCAM da Grégoire Carpentier and Damien Tardieu con la supervisione del compositore Yan Maresz, è in grado di fornire una o più orchestrazioni di un suono dato.

In pratica, significa che un compositore può arrivare con un suono e farlo analizzare al sistema che poi fornisce varie combinazioni di suoni orchestrali che approssimano la sonorità data.

Un esempio, tratto da quelli forniti dall’IRCAM, dice più di molte parole. Qui potete ascoltare:

Si tratta di Computer Aided Orchestration (orchestrazione assistita) ed è un ulteriore esempio di come il computer possa ormai affiancare il compositore in molte fasi del suo lavoro.

Il sistema si basa su un largo database di suoni orchestrali che sono stati analizzati e catalogati in base a una serie di descrittori sia percettivi (es. brillantezza, ruvidità, presenza, colore, …) che notazionali (strumento, altezza, dinamica, etc).

Un algoritmo genetico individua, poi, varie soluzioni, ognuna ottimizzata rispetto a uno o più descrittori, il che significa che non esiste una soluzione ideale, ma più di una, ciascuna delle quali si avvicina molto ad un aspetto del suono in esame, risuldando, invece, più debole sotto altri aspetti. Per esempio, si potrebbe ottenere un insieme che approssima molto bene il colore del suono, ma non la sua evoluzione. Sta poi al compositore scegliere quella che gli appare più funzionale al proprio contesto compositivo.

La descrizione completa del sistema Orchidée si trova qui. Vari altri esempi si possono ascoltare qui.

Traiettoria…deviata

Ecco la prima parte di Traiettoria, le altre essendo Dialoghi e Contrasti, di Marco Stroppa.

Note di programma

Traiettoria per pianoforte e suoni generati al computer è un ciclo di tre pezzi Traiettoria…deviata, Dialoghi, Contrasti, composta tra il 1982 e 1984 e della durata di circa 45′.

Traiettoria può essere considerato come un concerto per pianoforte e orchestra, dove i suoni sintetici sostituiscono l’orchestra. In questo lavoro, il rapporto tra suoni sintetici e suoni concreti del pianoforte a volte è progettato in modo che si fondano in un’unica immagine e sensazione. Timbri inarmonici e armonia, in altre parole, “illusione” e realtà, tendono spesso a fondersi e trasformarsi l’una nell’altra.

La disposizione del pianoforte e del dispositivo di amplificazione è stata studiata con molta attenzione. I suoni sintetici provengono sia da un altoparlante posizionato sotto il piano che interferisce con la tavola armonica e le corde, sia da più altoparlanti disposti intorno al pubblico. A seconda alla soluzione scelta il volume del suono è ridotto oppure circonda il pubblico da tutti i lati in un impulso costante per tutto il pezzo. Per ragioni di equilibrio anche il pianoforte è amplificato.

La regia sonora di Traiettoria in concerto serve a modellare il suono sintetico in base alla partitura e alle caratteristiche acustiche della sala. Deve essere assicurata da un musicista la cui importanza è pari a quella del pianista.