午前中はシミュレータの改造。元々は、panelオブジェクトで色を表示して確認していたのだが一目で確認出来ないため新たにGLでLEDの状況を確認するためのアプリを作成。光データ生成マシンの片方のCPUで処理をさせようとしたのだが、パケットの量が多すぎるため、外部にもう一台プレビュー用マシンを用意してもらう。今日は途中、NHKの取材が入り内橋さんの演奏と光のセッション。後半はほぼ即興でやっていたのだが、パターンが少ないためどうしても一様に見えてしまう。音量以外に、演奏のパターン解析をして部分は予想外にうまく行っている。当初からの課題であるが、音量の変化が非常に大きいためそれを管理するのが難しい。ある程度は自動化してあるが、微妙な光を出したいシーンは結局の所手動で調節しなくてはならない。夜は、昨日からの続きでひたすらキンセイさんにチェイス(光の動くパターン)を作ってもらう。僕のマシンで演奏のパターン解析をしてそのチェイスを呼び出す。こうすると、ジェネレート系では作り出せない様な緻密な光を作り出せる。この辺は音でも映像でも一緒だが、ジェネ系とサンプル系のバランスをうまく取らないと、見せたい部分不明の残念なアウトプットになってしまうので要注意。今の所アウトプットに情報が多過ぎる。光の場合は基本的には加算をしていくので(liddellで生成しているデータとmaxで生成しているマシンの演算は加算しか出来ない。<書き方が悪かったので訂正。大きい値が優先されるので、liddellで255 0 0 を出してmaxで0 0 255を出すと真っ白になる。)あっという間に白くなってしまう。これを防止するためにも、僕のマシンから出力しているデータをliddellマシンが出力しているデータとは別にしてプレビューする必要がある。特に即興のパート。演奏にどれぐらいフィードバックがあるのかはまだ難しい所である。後半の音を出さないシーンでどの程度までその辺を追求出来るかが明日の課題。そういえば、伊藤君マシンのcoremidiのエラー問題は、結局の所電源問題らしい。皆様お騒がせしました。(特にdigidesignのt君、、いつもありがとうございます。)