取り敢えずという程度なのですが、iPhoneでMaxをコントロールしてみました。
仕組みは、単純にWebアプリです。ボタン→JavaScript→PHP→OSC→Maxという流れになっています。Web系の人なら簡単に作れると思いますが、私はそれなりに苦労して(笑)、Galen Scorer氏のudp.phpを利用させていただきました。OSCなので、SuperColliderやReakterでも同じことができるハズですよね。
ちなみに、テキスト表現できるものなら何でもパラメータとしてMaxに渡すことができます。デモでは入力したテキストをMaxに送って、aka.speechで読み上げているのが分かりますよね。レイテンシーは許容範囲かな? シビアな演奏には向いていないでしょうけどね。
しかし、一番の問題は先の記事でも触れたように、iPhoneのWebアプリとしてはマウス・ドラッグ(指ドラッグ)が捉えられないことです。なので、このデモでもボタンを押すことしかしていません(しかも、onClickなので指を離した時に動作する)。引き続き、このあたりの情報をご存知の方は、是非教えてください。
【追記】よく考えたら、YouTubeだとiPhoneな人は見ることができないですよね(馬鹿FlashがH.264化されるまでは)。そんな訳で、QuickTime(MPEG-4)ムービーもアップロードしました。
javaとajaxは直接メッセージングできるようなので、もしもそれができればレイテンシーの問題はかなり向上すると思います。
ただ、それはJ2EEというjavaのサーバーサイドプログラミングが必要で、そのためにはjboss,tomcat,resinなどのいわゆるアプリケーションサーバをたてる必要があり、また、max環境ではj2seしかインクルードされていないので、ajax->mxjというのは現状では不可能ということになります。
socket通信をつかったj2seのみでなんとかメッセージングできないか、ムキになってしらべています。(というか、制作そっちのけになっているのが怖い)
> 制作そっちのけになっているのが怖い
行け〜〜!そっちのけで行こう!ってか、立派な制作でしょ。
ピンバック: aka.iphone登場? « akalogue