Miri Kat’s debut EP brings ephemeral collages, in turns frenetic and and lyrical, in a unique brand of glitchy grindcore for a post-Internet age. Miri’s hyperactive textures are rooted in original engineering, live-coded from found sounds with open source tools, derived from open ecosystems in both sounds and software. For Establishment, she is producing an original audiovisual edition, pairing her live visual talents with the compositional ones.
The London-based artist self-described as “oriental” in origin has fast become a mainstay of the underground livecoding scene. Her day job is as an engineer of electronic musical instruments, with expertise in music tech, web technologies, hacking, creative coding, algorithmic music, immersive multimedia, and generative visuals.
An excerpt from the Suguru Goto’s Japanese tour of 2016. The video, from Tokyo concert, is a collage of three songs with music by Suguru Goto and graphics by three different artists Patrick Defasten, Lucio Arese and Antoine Schmitt .
The songs are:
Body Jack, Suguru Goto music, Patrick Defasten graphics
CsO, Suguru Goto music, Antoine Schmitt graphics
Continuum, Suguru Goto music, Lucio Arese graphics
There is no detailed info, but I guess that all the songs could be generated with one of the classic audio and video software, such as Max/Jitter or PD/GEM or, at least, Max/PD exchanging data with Processing.
In the first two tracks the graphic part is completely generated by the computer. The second one is based on the particles most likely by Jitter.
The former exhibits a considerable amount of objects assembled in a toroidal configuration, which then explode into other forms. Rotations are not a problem because they are not the objects to move, but the virtual camera (the “viewpoint”). But the amount of objects and their arrangement suggests some kind of specialized software.
In the third, however, there are almost organic shapes that resemble jellyfish, and it is more difficult to understand if we have to deal with a totally computerized graphic or with a few shots.
Hello, by Alexander Schubert (2014) For {any number of} instruments, live-electronics and video
Excerpts from composer’s notes:
The piece is audio-visual. It’s basically a video that is accompanied by the instruments. The video consists of video recordings of the composer performing certain actions / gestures. These gestures are notated in the score as well and need to be interpreted by the musicians (as musical events – not as theatrical actions / physical movement – the idea is to find corresponding or contrasting music events for the given gestures).
The piece is really based on the video and the electronics in the tape, meaning that in the rehearsal progress, rather use the video as an orientation and not the only the score. The score is a tool to make it easier to play along with the video, but eventually the video is the real score.
The piece can be played more or less by any combination of instruments. It is advised to have at least four players, one of which is a piano/guitar/accordion or similar to play chords. Also a percussionist should be included. For combinations that do not fall into this description please contact the composer to check.
You are invited to use other small instruments or props other than those found in your ensemble. For example toy instruments, everyday household tools or found objects. Chose these instruments in order to fit a given video gesture you want to accompany.
Un video ispirato a Solaris (suppongo l’ultima versione, visto che ne ha ereditato la musica di Cliff Martinez) realizzato da Odaibe durante lo studio di Touch Designer.
IMHO, la parte musicale è un po’ povera e soprattutto non ha alcun collegamento strutturale con l’immagine, ma quella video, composta da migliaia di particles che si organizzano secondo diversi campi di forza è affascinante.
Peraltro, video come questo segnano punti a favore del tempo differito rispetto al tempo reale.
BEASTmulch is an AHRC (Arts & Humanities Research Council) funded research project exploring approaches to large-scale multichannel electroacoustic composition and presentation, lead by Scott Wilson along with Jonty Harrison and Sergio Luque at the University of Birmingham.
BEASTmulch System is a software tool for the presentation of electroacoustic music over multichannel systems. Designed primarily with a classic ‘live diffusion’ model in mind, it is nevertheless flexible enough to be adapted for a number of purposes, and can support input and output configurations of arbitrary complexity (i.e. live inputs, soundfiles with varying numbers of channels, etc.).
The software has numerous features (e.g. realtime reconfigurable routing, channel processing, automation, etc.), incorporates various standard and non-standard spatialisation techniques (VBAP, ambisonics, etc.), and adapts easily to both small and large (i.e. > 100 loudspeakers) systems.
BEASTmulch System is the software component of the BEAST concert system.
System Requirements: Mac OSX 10.4 – 10.5 (10.6 compatibility forthcoming).
BEASTmulchLib is a SuperCollider class library designed for use in the creation, processing and presentation of complex multichannel signal chains. Objects include sources, matrix routers and mixers, and sound processors and spatialisers. The latter are based on a simple user-extensible plugin architecture. Many classes have elegant GUI representations.
The library also includes classes which represent a variety of different controllers, including MIDI controllers, GUI Faders, EtherSense, etc., and provides support for controller automation (i.e automated mixing and diffusion).
It supports a number of common spatialisation techniques, such as Ambisonics, and includes SC ports of Ville Pullki’s Vector Base Amplitude Panning (VBAP), and the Loris analysis resynthesis method. It also supports some idiosyncratic techniques, such as Spatial Swarm Granulation, and provides utility classes for Speaker Array balancing and visualisation.
Currently the library is not fully cross-platform: GUI classes and UGens are OSX only.
VPT (VideoProjectionTool) is a free multipurpose realtime projection software tool for Mac and Windows created by HC Gilje.
Among other things it can be used for projecting video on complex forms, adapt a projection to a particular space/surface, combine recorded and live footage, for multiscreen HD playback, for interactive installations using arduino sensors or camera tracking ++
VPT has become a popular tool for theatre and installation use, but is also used by VJs. The previous version,VPT 6, was downloaded over 20000 times.
Veer (2012), an installation by Adam Fure and Ashley Fure
Ashley Fure, Sound and Interaction Design
Adam Fure, Architectural Design
Batting, Custom Steel Branching System, Pressure Sensors, LEDs, Speakers, Computer, and Control Software
In Veer, created with architect Adam Fure, swaths of cotton batting wrap a branching steel structure to create a soft, interior sleeve for a room. Participants navigate tunnels and alcoves, activating speakers and LEDs embedded in the material walls as they move. Sensors disaggregate the musical form into gestural components, linked to locations, that elide into dramatic phrases through movement. Sonic, visual, and proprioceptive cues align into fused, synesthetic emphases. Gradations in color and ceiling height are mapped to acoustic shifts in register, spectral density, and gestural shape. High blanched walls project soft white noise while cramped regions thick with color screech out multiphonics. In Veer, space and matter are charged with an expressive force let loose through movement.
Veer is a multimedia installation that transforms space, sound, and light into variable dimensions of an experiential field. A base of polyester batting wraps a branching steel structure creating a soft, interior sleeve comprised of tunnel-like folds. Participants bend and push through saturated matter, pulling sound and light from sensors embedded in the material walls. In Veer, space provokes movement, movement provokes sound, and engaged participants instigate an emergent perceptual form.
Veer was funded and exhibited by Akademie Schloss Solitude in Stuttgart, Germany.
Questo post è la revisione di uno del 2006. Mi sembra che, essendo Myers non molto noto, sia il caso di parlarne ancora.
David Lee Myers è un compositore che si trova nella scomoda situazione di essere sconosciuto al grande pubblico perché non fa “pop” e sconosciuto agli accademici perché i suoi lavori non si inseriscono nella tradizione “colta”. Però è conosciuto dagli sperimentatori a oltranza, da quelli che non si accontentano di ri-elaborare delle idee maturate nell’ambito di una corrente, quelli un po’ scontenti e un po’ solitari che regolarmente disfano quello che hanno appena fatto per il gusto di ricominciare da capo.
Nel 1988 affermava che
True electronic music does not imitate the classical orchestra or lend well worn melodies the cloak of unexpected timbres – it exists to evoke the hitherto unknown. And it comes from circuits and wires, though I do not believe that electronic sound is “unnatural”, as some people might.
La vera musica elettronica non imita l’orchestra classica e non presta un mantello di timbri inattesi a melodie ben formate – essa esiste per evocare ciò che fino ad ora è sconosciuto. E nasce da circuiti e cavi, ciò nonostante io non credo che il suono elettronico sia così “innaturale” come qualcuno pensa.
Proprio queste considerazioni hanno condotto D. L. Myers alla pratica di una musica estrema, quasi totalmente priva di input: niente partitura, nessuna tastiera, nessun suono da elaborare, nessun sistema di sintesi propriamente detto. Una musica in cui sia i suoni che le strutture non nascono dalla pressione di un tasto o dal fatto che qualcuno mette giù un accordo, ma dall’interazione spontanea di una serie di circuiti collegati fra loro in retroazione che l’essere umano si limita a controllare.
Al massimo l’input viene utilizzato solo come sorgente di eccitazione per il circuito di feedback.
Quello che Myers faceva, già nel 1987 con apparecchiature analogiche, era feedback music.
Il feedback positivo in una catena elettroacustica è stato sperimentato, con fastidio, da chiunque abbia usato un microfono e lo abbia inavvertitamente puntato verso gli altoparlanti. In breve si produce un fischio lancinante, mentre i tecnici si lanciano verso il mixer per abbassare il volume.
Questo problema, più conosciuto come Effetto Larsen, si verifica perché il microfono capta dei suoni che vengono amplificati e inviati all’altoparlante. Se gli stessi suoni, in uscita dall’altoparlante, vengono nuovamente captati dal microfono, amplificati e ri-inviati all’altoparlante, si crea una retroazione positiva tale per cui entrano in un circolo chiuso in cui vengono continuamente amplificati fino ad innescare un segnale continuo a forte volume.
Come si può immaginare, il feedback è un po’ il terrore di tutti i tecnici del suono, ma in determinate circostanze può essere controllato e se può essere controllato, può anche diventare uno stimolo per uno sperimentatore.
Bisogna puntualizzare che non si tratta di una idea di Myers. Ai tempi della musica elettronica analogica questo effetto è stato utilizzato in parecchi contesti. Anch’io ne ho fatto uso in una installazione del 1981 (si chiamava “Feedback Driver”, appunto), ma credo che negli anni ’80 l’abbiano provato un po’ tutti, con alterni risultati. I miei primi ricordi relativi a questa tecnica risalgono al lavoro di Tod Dockstader, un ricercatore e musicista americano relativamente poco noto, anche se alcune sue musiche sono finite nel Satyricon di Fellini.
Quello che distingue Myers dagli altri, però, è l’averne fatto una vera e propria poetica. Lui non sfrutta il feedback per elaborare qualcosa, non parte da algoritmi di sintesi, ma collega in retroazione una serie di dispositivi (principalmente mixer e multi-effetti) e variando i volumi sul mixer (che a questo punto diventa la sua “tastiera”) e cambiando tipo e profondità degli effetti ne trae una serie di sonorità suggestive, sempre in bilico fra il fascino di una musica che si muove in modo quasi biologico e il totale disastro delle macchine fuori controllo.
Senza dubbio, Myers è un virtuoso, ma, a differenza del virtuoso tradizionalmente inteso, lui non domina il proprio strumento. Piuttosto lo asseconda, cercando di spingerlo in una direzione. Qui la composizione consiste nel definire una rete di collegamenti fra i dispositivi e la tecnica si fa estetica.
Inoltre, come si vede in questo breve video, Myers si fa anche artista visuale elaborando una serie di tracce create dalla sua stessa musica.
Sto esplorando alcune produzioni di Julien Bayle (aka Protofuse). Abbastanza giovane (b. 1976, Marsiglia). Studi di biologia, informatica, forse musica. In quest’ultima spazia dalla techno all’ambient. In effetti ha iniziato come DJ Techno per passare, poi, ad Ableton, Max for Live e Max6 [notizie da wikipedia]. Si occupa anche di installazioni audio-visuali via Max + Jitter.
Musica di Julien Bayle si può ascoltare qui. Ecco un brano: void propagate #2
Ed ecco una immagine tratta da una installazione recente: Disrupt!on (2014) realizzata con Max6, OSC, OpenGL, Network connection.
Dato che, come autore, spazia fra vari generi, alcune cose possono piacere, altre no, ma il suo è sicuramente un sito da visitare.
PS: mi sto anche chiedendo se non abbia qualcosa a che fare con François Bayle…
MaxScore è un software che gestisce la notazione musicale in Max/MSP e Ableton Live via Max for Live.
In pratica è un oggetto Max che accetta messaggi per creare note e trasformarle. La partitura può essere salvata, caricata ed esportata in MusicXML e nel formato di LilyPond. È inoltre in grado di eseguire una partitura inviando messaggi ad ai vostri patch Max/MSP.
JMSL is a Java API for music composition, interactive performance, and intelligent instrument design. With JMSL, the composer/programmer can create stand-alone musical applications or deploy applets on the web.
JMSL supports JSyn (Java Synthesizer, a music synth API written in Java) and MIDI.
Il download e l’utilizzo di MaxScore sono gratuiti per i possessori di una licenza JMSL, che costa $50 per gli studenti e per coloro che vogliono usare solo MaxScore con Max/MSP e Max for Live. Per tutti gli altri, cioè coloro che intendono sviluppare applicazioni in JMSL, la licenza per uso non commerciale, educativo e artistico costa $120. Per altre info, vedere qui.