%e3%83%95%e3%82%a1%e3%82%a4%e3%83%ab_000
写真は舞台の模様をぼんやりみせつつ、実際に使った外付けグラボです。

数年前のNADAにはじまり、
今年2月に湯河原で開催された頼朝の洞でもお手伝いしております
インテグラル・ビジョン・グラフィックスさまのお仕事で今回もお手伝いしました。

内容は2016年10月7日に東京・日本橋福徳の森特設ステージにて開催された「幕開き日本橋-東京2020文化オリンピアードキックオフ-」のイベント。ここで能と映像、音楽とのコラボレーションにてセンシング部分を担当しました。


※53分頃から始まっている演目です。

「演者の動きに合わせて映像をインタラクティブに動かす」というものでうまく行き過ぎると作り込み映像と変わらないし、合わなさすぎると気持ち悪いという難しさもありますがなにより今回は
・リハーサルの回数が少ない
・衣装が和服?だろうから骨格認識はできない
・屋外なので外部環境に左右されることが多い

というのが一番難しいところでした。
さらにはイベントの進行があるのでセンシングができなからといって流れを止めることができないというこれまた密かなプレッシャーがありました。
(こういうのは何度やって慣れていても終わるまでは安心できないものでして・・・性格かな)

センシングに関するところはリアルタイムですが様子を見ながらビジュアル要素をその場で変えるところもあり、
VJ的にミックスとの連携も必要だったのですが漠然とすり合わせだけしてあとは様子を見ながらお互いに変えていくというのは作り込みが多い僕にとってはライブ感があってなかなか面白かったです。
わかりにくいかもしれませんがその時の様子はここからどうぞ。

ちなみにその個所はiPadから要素を変更できるように作っておいて離れたところから舞台を見ながら変えていました。
ああいった場でできるのはなかなか貴重だったのではないかと思います。

これからもいろいろと面白い場所で面白いことができるといいなあ、と思っています。


参考:
狂言の宴とプロジェクションマッピングとの融合:(レーザー、センシング)

NADA Project Vol2:センシング

NADA Project Vol2 – Kagura – Full version from Takayuki Baba on Vimeo.

ちょくちょくお誘いいただくBENZENE by VMTTさんからお誘いいただいてサマソニのSonic Stageのヘッドホンデコレーションのシステムを制作しました。

フロアに設置された4つのヘッドフォンからLEDの映像と照明、音が出るようになっていて、簡易サラウンドのようなものになっています。

映像をもとにバーチャル空間上に音源を配置し、バーチャル空間上にあるオブジェクトから音を出し、対応する箇所が光るように信号を送りました。
インタラクティブ系の機能も作っていたし、今回の経験でまたやりたいことも出てきたので今後もこういう機会があるととても嬉しいです。

ブログ記事

ということでレーザーと衣装です。

レーザーは今回はRAM RIDERの時だけVENUS LASERさんの機材を使わせてもらって現場で操作してました。
衣装は電波干渉が心配でしたがほとんど問題なく動いていました。

この場所でも動いたというのは良い自身になるなあ。

画像はラジオボーイという曲での一コマ。
いつも聞いているTBSラジオの周波数で喜ばしいです。

moshimoshi

2015年7月の頭から1週間程度、某イベントにてRaspberry Piを48個使ったPhoto Boothのシステムを作りました。
Raspberry Piのプログラム、撮影の制御を行うプログラムやシステム構成の検討、撮影した写真から動画を作成しアップロードする機能やビューワーまでを作りきりました。

なかなか苦労もありましたが喜んでいただけたようで何よりでした。
個人的にも勉強になることが多く、今後に活かせればと思います。

写真は直前のテスト中の様子。
この台数が並んでいるのがワクワクしますね!

photobooth

某ショーレストランにて、既製品のLEDを使った道具、制御システムの導入と設置、配線を行いました。

もともと赤外線のリモコンで光り方を制御するタイプのLEDがすでに導入されており、これを活用したいというご希望と使いたい箇所のご指示をもらい、下記内容を制作しました。

 

1. LEDの自動制御化
ショーの最後に曲に合わせて全員で踊るシーンがあるのですが、その箇所でLEDを照明に設置し、音に合わせて自動で光るシステムを作りました。
LEDにマイコンを設置して無線化し、Macから時間軸に合わせて各マイコンに制御信号を送り音に合わせて自動で点灯パターンが切り替わるシステムをつくりました。

現場の状況を確認し、キーボードの押下で自動制御システムの時間軸が動くようになっています。

 

2. 赤外線リモコンの変更
赤外線リモコンは受信できる角度が狭く、ある程度正対しないと切り替えられないので様々な箇所に設置されている多数のLEDを同時に切り替えることは難しいです。
そこで、赤外線の受信機をつけて信号の中身を解析し、マイコンからリモコンと同一の制御信号を送ることでリモコンを使わなくても光り方を切り替えることができるようになりました。

他にもキャラクターの体にもLEDを仕込み、必要に応じてマイコンを導入し、ボタンをつけて演技しながらでも切り替えやすいように舞台装置を作成いたしました。

これはなかなか図や写真がないとわからないですが後日作成します。

2014/4/20 Tokyo Hard Groove session@clab asiaにて
インタラクティブにレーザーを動かしてきました。

制作時間がなかったのもあり、構成は複雑だが作りやすさ優先で対応しました。

 

構成:
Xtion Pro live -> Unity -> Syphon -> oF(輪郭抽出してレーザーの形式に変換して出力する)-> etherdream -> レーザー実機

また、3Dデータをレーザー向けに作ってもらえたおかげでキャラクターとレーザーの見えやすさがちょうど良いところで折り合いをつけられたかと思います。

 

参考:
動画(instagram):https://instagram.com/p/nAuf-VmnIO/
イベントページ:http://asia.iflyer.jp/venue/flyer/182932

2013/12/6 block.party @ club asiaにてScience Nonfictionの第二弾をお披露目しました。

前回はKinectでしたがMVNというモーションセンサーの入ったスーツを着てパフォーマンスしてもらいました。

ZiNEZさんはフリースタイルのバスケットボーラーであり、モデルもやっているというまさになんでももっているような人ですがそういう外見だけではなく、すごく芯が強くて能力も高いし精神力もある、すばらしい人でした。


Science Nonfiction Episode2 feat.ZiNEZ 2013/12/6@Shibuya clubasia

参考:
ZiNEZさん公式:http://www.littletokyo.jp/zinze.html

2013/04/05 block.party@club asiaにて、DJと映像クリエイターとデザイナーとシナリオライターとプログラマーからなる、Science Nonfictionのお披露目をしてきました。

パフォーマーはなんとTeddyloid。豪華ですね。

新世代というか、ゲームに慣れ親しんだ世代ということもあり、驚異的な身体能力と見せ方を考えられたパフォーマンスで制作している私ですら興奮してしまった記憶があります。

何百人といるところでお披露目するのは初めてで終わるまでプレッシャーがすごかったですが無事盛り上がって終えることができました。

参考:
Teddyloid公式:http://www.teddyloid.com