https://www.ableton.com/ja/packs/connection-kit/
Arduinoやoscと容易に連携できるAbleton公式のMax for Liveパッチが公開されました。早速使いましたのでレビューします。
Max for Liveとは何か
そもそもmax for Liveを知らない人もいるかもしれませんので説明します。max for Live はableton Liveの最上位版suiteを購入すると付属するプラグインで、maxというビジュアルプログラミングソフトウェアをLiveに使いやすいようにパッケージ化したものです。ですのでmax for Liveの中身はほとんど完全にmaxです。
ではMaxとは何か
ではmaxとはなんでしょうか。maxは次の画像のように、オブジェクトといわれるブロックをケーブルでつなぎながらプログラミングし、音や映像を扱うソフトです。基本的にはミュージシャンには必要がないとは思います。今はほとんどのことがvstで可能だからです。しかし、どうしてもableton LIVE単体では実現不可能な機能がある場合に、maxを使ってその機能を作ることができます。
具体的には私は映像をMIDI情報でコントロールしたいと思って学習し始めました。
Arduinoとは
Arduinoはこの箱のなかにある青い基盤です。この基盤はパソコンとUSBケーブルでつながります。そしてこの基盤にはモーターやセンサーやツマミをつなげることができます。結果としてArduinoを介してLiveは外の世界の信号を受け取ったり、または進行を基盤に送ることでモーターを回したりライトを光らせたりすることができます。
Arduinoやその他の安価なデバイスが出る以前は、こういったテクノロジーを専門家以外が扱うことはハードルが高かったのですが、Arduinoの出現によって私のようなミュージシャンにもセンサーやモーターを扱うことが容易になりました。次の写真のようなアマゾンの箱に詰め込められたコントローラーを作りました。
Max for Live Connection Kit とは何か
では本題のLive Connection Kitです。次の動画を見てください。シンセサイザーのLFOを先ほどご紹介したArduinoの電子工作でつくったamazon箱コントローラーで制御しています。そしてLFOに連動する形でProcessingという映像をプログラムするソフトで創った映像を動かしています。そのためにはOSCというプロトコルを使っています。
こういった様々なハードウェアやシステムをコントロールするためにConnection Kitを使っています。
具体的には次のパッチを使っています。
Arduino
まずはArduinoパッチ。Amazon箱コントローラーからの信号を受け取るためのパッチです。Portを自分が使用しているArduinoに合わせて、A0やA1といったArduinoインプットからの信号をMapボタンをおしてLiveの各デバイスに結びつけてあげます。ここではA0をシンセのフィルターに、A1をLFOの周波数に結びつけてコントロールしています。
OSC Send
次にOSC Sendです。ここではシンセのLFOの周波数つまみの値をOSCに変換してPort 12000に送っています。この信号はProcessingという動的に映像をするソフトで受け取って丸の大きさや色をコントロールしています。
以下の画像はProcessingのコードとコントロールされる映像です。OSCについては次の記事も参考にしてください。http://neralt.com/max-processing-osc-relation/
ミュージシャンがプログラミングする意味はあるか
正直にいってプログラミングは純粋なミュージシャンにはハードルが高く、例えばMaxを使って市販のVSTにはない音楽性をもったシンセやドラムを制作するのは不可能に近いと思います。Maxを使って一からシンセを作らなくとも、Max for Liveで公開されているパッチを使えば、音楽的なものは全て手に入るといっても過言ではありません。
しかしVSTではできないことがいくつかあります。そういったことを達成するためにプログラムをする意味があります。
今回公開されたパッチもそうです。こういった電子機器や映像との連携はLIVEだけではできません。Max for Liveがあってはじめて達成できます。今回はわざわざ作らなくとも、連携が非常に容易にできるようになりました。一から作るとなるとかなり大変なものですが。
今まではこれを専門のチームにわかれて行ってきたと思います。映像は映像、音楽は音楽、電子デバイスは電子デバイスと、専門家がチームを組んで行ってきました。その理由の一つは、 各技術的なハードルが高いために、一人ですべてをこなすことが非常に難しかったということがあげられるはずです。またコストも高く、専門的なソフトウェアやツールは高額でした。
しかし昨今、明らかにコストと敷居が下がりました。そんなことはメディアアートをやってる方からすれば当たり前だ、ということになると思いますが、私のようなテクノロジーの末端にいる人間にも実感できるレベルの動きが起きています。abletonという音楽専門のソフトウェアメーカーがarudionoやlittle bitという電子工作キットと連携する今回のようなパッケージを出してきたことも象徴的です。メディアをまたいだアートの実現可能性が圧倒的に高まっているのです。
このような現状に後押しをされ、ミュージャンが直接プログラムを書くことで実現できる可能性はいくつかあると思います。
私が今やりたいと思っているのは直接的に楽譜情報と映像がリンクする、もしくは映像からのフィードバックが楽譜情報に反映されるようなライブパフォーマンスです。こういったシステムを作るには結局、どのような楽譜情報に対して映像をコントロールするのか、ミュージャン本人が理解していないと実現が難しいのではないでしょうか。両者を一人でコントロールする方がよりイメージしたものができそうだなと思っています。他にもセンサーの活用も演奏者本人がコントロールすることで広がる可能性があると思います。
テクノロジー的には大したレベルではなくとも、音と映像の連携をコントロールすることで、また面白いものが出てきそうです。
ではまた!