超絶技巧エア・ギター

単なるネタですが、タカラトミーのAIRGUITAR PRO Acoustic Version(プロとかアコースティックとかと言われてもな〜)+LINE6のPOD XT+オモチャのFender風アンプです。イタイですね〜お屠蘇気分でジャァ〜〜〜ンって言わせてます(苦笑)。

air-guitar.jpg

だけど、エア・ギター・カルチャーって面白い。懐かしのJaminatorからGuitar Heroまでデバイスも沢山あるし、何よりも本物(笑)のエア・ギター(コレとかコレとか)は狂いまくっている。タレント登竜門みたいなミス・コンテストは神髄を衝いていると思う。

かつてラップトップ・ミュージック華やかりし頃(あったのか?笑)、何をしているのか分からないなんて間抜けた意見を言う人がいたし、その反動で(ってこともないだろうけど)ライブ・コーディングをプロジェクションする人もいる。そんな人たちにこそ、エア・ギターをして欲しいな。映像と音楽の同期と言いながら振幅が一致しているだけのDJ/VJ系も、この延長線上にあるけど、エア・ギターを超えられない。

つまるところ、物理、本能、記憶、文化に対して純粋芸術は存在するのか?といった古臭い命題に帰結しそうで怖いんだけど、まぁ、ジャァ〜〜〜ンと今年も行きましょう(またしても腰砕け〜笑)。

Pericam.app登場

iPhoneの内蔵カメラを使ってインターバル撮影を行うアプリケーション、Pericam.appを公開しました。時間間隔、画像サイズ、画像品質を指定してStartボタンを押せば、後は一定時間ごとに自動的に撮影が行われます。インターバル撮影自体はバックグラウンドで処理されるので、Pericam.appを終了して他のアプリを起動しても構いません。

iphone-pericam-icon.png iphone-pericam-1.png iphone-pericam-2.png

インターバル撮影と言えば、雲の動きや花の開花などの低速度撮影(早回し再生)もあるけど、iPhoneを胸ポケットに入れて(レンズを覗かせて)歩き回るとかもいいんじゃないかな。それ何?と尋ねられても、他のアプリを見せれば撮影を意識させないで済むしね。

そう言えば、数年前にライフスライス(LifeSlice)プロジェクトやら、LifeLogプロジェクト、MyLifeBitsプロジェクトなどが話題になったよね。当時のLifeSliceカメラは機能的にはショボかったけど、iPhoneとPericam.appなら少々マシなことができるような気がします。iPhoneのカメラもブレがちなのが難点なんだけど。

ちなみに、撮影&リサイズは人様のコマンド・ライン・ツールを使っていて、それをcronで定期的に駆動しています。つまり、Pericam.appはGUIとcrontabの編集をしているだけね。iPhoneがUnixマシンであることの証ですね。ただし、スリープさせちゃうとcronも眠っちゃうみたいで、インタバール撮影は中断されちゃいます。もっとも、アラームなどはスリープしていても動き出すから、このあたりのメカニズムを探求したいところ。

それから、Pericam.appのインストールはちょいと面倒です。ターミナルを使える人なら問題ないと思いますけど、Installer.appしか使ったことがない人には少々敷居が高いかも。Installer.app用のスクリプトを書けば良いような気もしますが、取り敢えずはUnixの基礎知識がある人限定ということでお願いします。

Year of the iPhone

今年はiPhoneおよびOS Xの年だと思う。個人的にも世間的にもね。もちろん、2007年こそがiPhoneの年だったんだけど、愚鈍なケータイ鎖国日本ではインパクトが薄まっちゃった感は否めない。だけど、今年は3G iPhoneが出るのは確実だし、日本でも発売されるだろうから、その真価が誰の目にも明らかになるハズね。

それはiPhoneだけではなくって、iPod touchやウルトラスリムMac touch(出るのか?)、第2世代Apple TV(出るのか?)、カーナビを含む自動車用デバイス(まだ名称未設定?)などを含めたOS Xベース、マルチタッチ・ベースのポータブル・デバイス群が強力なシナジー効果を発揮することにもなるだろうね。ハイ、何度も言ってますけど、OS X汎神論です。

このことは、本体、ディスプレイ、キーボード、マウスから成るコンピュータの終焉でもあるワケです(形状だけでなくって、UIや利用形態を含めてね)。デスクトップからモバイル、ウェアラブルへの本格的な移行であり、さらにはインプラントへの序曲でもあるね。これまた何度も言っているけど、コンピュータはもうオシマイ!なのです。などなどと考えながら過ごしたお正月でした。

iphone-screens.jpg

ちなみに、ちょっと腰砕けになるけど、制作環境としてのコンピュータは暫く存続するハズね。小さなスクリーンでの効率的な作業環境は、まだまだ確立されていないから。となると、コンピュータとモバイル・デバイスとのシームレスな統合が、今年のもうひとつの鍵になりそう。それはウワサ(と言うか特許出願中)のドッキング・ステーション(熱望!)かもしれないし、今のところ出来の悪い「どこでも My Mac」かもしれない。

QCでiTunesビジュアライザー

ふと思い立って、iTunesビジュアライザーを作りました。動機は単純。ン百GBのiTunesライブラリを繋げているMacが部屋の隅(数メートル先)にあるので、再生している曲の情報を画面上に大きく表示したい!でした。それほど広い部屋じゃないし(笑)、BGMを聞きながら作業する人じゃないけどね。別のMacで作業しているとは限らないから、ライブラリ共有やTuneConnectは必ずしも解決策にならないのです。

それで、LeopardのQuartz Composer 3.0にはiTunes用プラグインの作成機能があって、これが唖然とするくらい簡単でした。QCで新しいコンポジションを作る時に、「Music Visualizer」のテンプレートを選ぶだけです。もうこれで出来ています。

iTunesを起動して音楽を再生し、ビジュアライザとして「旋盤」、「ゼリー」、「スティックス」のいずれかを動作させます(デフォルトのiTunesビジュアライザ等はダメね)。すると、あら不思議、Quartz Composerでも音楽に合わせてスペアナが踊り、アートワークをも含めた曲の情報が表示されます。もう笑うしかないですね。

qc-itunes-visualizer.jpg

私の目的からすれば、テンプレートは豪華過ぎるくらいだったので、バッサバッサと不要部分を切り捨てて、画面一杯に巨大文字が横スクロールするようにしました。/Library/Compositionsあたりにファイル保存して、iTunesを再起動すれば作業完了。このファイルはそのままスクリーンセーバのプラグインにもなりますね。

てな感じで、アッと言う間に目的が達成できたので、メデタシメデタシです。しかし、結構チラツキが多いようで、FPS値も大幅に変化して安定しません。考えてみれば、巨大画像を単純にスクロールさせている力技だから、無理もないですね。簡単にプラグインは作れても、スマートなプラグインを作るには、それなりにノウハウとセンスが必要という、極々当たり前の結論となりました(笑)。何事も精進が必要です。

このコンポジション(ファイル)を以下にリンクしておきます。参考にする価値はありませんが、石英作曲家な方は改良していただけると有り難いです。

infotunesqtz.zip

近頃のiTunes Store探偵団

先の記事のついでに余談ながら(って、すべて余談なんですけど)、iTunes Storeで「百人一首」を検索して見つかる曲(詠み上げ)がオカシイです。ほとんどが30数秒なので、下の句のリプライズが少々欠ける程度で、ほぼ全部聞けちゃうんですね。それに1曲150円での販売だから、律儀に全部購入すると15,000円ほどになります。もちろん、全曲入りのアルバムは1,200円とか1,500円ですから、何とも杓子定規な値段付けでございます。しかも、全99トラックのCDフォーマットを、そのままiTunes Storeに持ち込んでいるものもあって、頭悪過ぎ手抜き過ぎ。こんな会社に原盤権を握られている人は悲し過ぎます。なにはともあれ、デジタル音楽配信に対応しているだけでも素晴らしい〜〜なんて物分かりのいいこと思いませんよ。

itunes-store-hyakunin-issyu.jpg

さらに余談ながら、値段付けと言えばお騒がせRadioheadなんだけど、その「In Rainbows」がiTunes Storeに登場したものの、フツーに1曲150円、アルバム1,500円でした。RadioheadもAppleも腰砕け〜ですね。これを機会にAppleは新しいオプションを設けるべきでした。iTunes Plus(高音質、DRMフリー)であるのが、せめてもの救い。なにはともあれ、様々な購入方法から選べるのは素晴らしい〜なんて物分かりのいいこと言いませんよ。

Repeat After Meでスピーチ調教

Mac OS Xに付属するDeveloper Toolsに素敵なアプリケーションがあって、Repeat After Meという名前で/Developer/Applications/Utilities/Speech/下に鎮座しています。これは本来、スピーチ・シンセサイザーの調教用だと思うんだけど、摩訶不思議な発声を作り出したり、有り得ない新造語を喋らせたりして遊べます。

具体的には、まず、テキストをフォネーム(Phonemes、音素記号)に変換した上で、フォネームをピッチと時間によるグラフとして表示したり、TUNEと呼ばれる詳細なテキスト記述に変換できます。このグラフやTUNEを編集すれば、その状態に基づいて喋らせたり、フォネームに戻すことができる訳です。極めつけは、マイクで録音した人の喋り声を分析し、得られたピッチや時間をグラフに当てはめることですね。私は勝手にシンボリック・ヴォコーダと呼ばせていただいています(笑)。これでアレコレ妄想が沸き起こらなきゃ人生終わりですね。

repeat-after-me.png

何故こんなことをしているかと言うと、実は、お正月モードで百人一首の詠み上げをスピーチ・シンセサイズしようと思ってたんです。どのみち日本語はちゃんと読んでくれないから(「ひろし」と「まさこ」はどこへ行った?)、Repeat After Meできちんと補正するか、ハイパー素っ頓狂にしちゃうつもりでした。でも、結構面倒なので、さっさと止めたんですけどね〜(笑)。

【追記】フォネームの詳しい情報はココが参考になります。

CHDKでデジカメを機能拡張

日本語Wikiもあるくらいだから、カメラ小僧的には有名なんだと思いますが、Canonのデジカメの機能を拡張しちゃう勝手ファームウェアCHDK(またはHDK)ってのがあります。本家はロシアらしいのですが、私は英語のWikiサイトの情報を元に試してみました。

私が持っているCanonのデジカメは、ちょいと古いPowerShot S2 ISで、これがバッチリ対応機種(ファームウェアはGM1.00F)でした。手順はFAQを順に追って行けば、数分で作業が完了します。カメラ本体のファームウェアを書き換えちゃうのではなく、電源を切れば元に戻るので、安心して試すことができます(でも自己責任ですよ〜)。毎回使うなら、電源投入時に自動起動するように設定すればラクチン。

chdk-main-menu.jpg

それで、このCHDKで何が可能になるかと言うと、以下のようになかなか素晴らしいものがあります(CHDK In Briefより抄訳)。

主要な機能:
・RAWフォーマットでの画像保像
・スクリプトによる各種機能の自動実行
・ライブでのヒストグラム表示
・ゼブラ・モード(露光過不足領域の表示)
・詳細なバッテリー情報の常時表示
・自動暗領域減算の抑止
・圧縮率の高いビデオ・モード
・65秒までの長時間露光
・1/10,000秒までの短時間露光
・USBポートでのリモート・トリガー入力

追加の機能:
・被写界深度(FOD)の計算
・ファイル・ブラウザー
・テキスト・リーダー
・カレンダー
・その他のツールやゲーム

ゲームにはオセロと倉庫番があって、そこまでやるかぁ〜!?って感じですね。これらの他にも、さらに機能拡張されたビルドもあって、モーション(動体)検出やステレオ画像などもサポートされています。個人的には、BASIC言語のスクリプトやら極端な露出時間時間(理論的には1/100,000秒とか)、それにモーション検出ってあたりが冬休みの自由研究(笑)になりそうです。

さて、CHDKが露にした事柄によって、ハードウェア本来の性能を隠しているとメーカーの態度を非難することもできるけど、それはどこでも同じですよね。事情としては、機種ごとの差別化を図る販売戦略としての独善的な判断もあるし、使い勝手をまとめ上げるユーザービリティとしての苦渋の判断もあると思う。だけど、iPhoneもそうであるように、マニアックな裏口を知らん顔して開けておくってのは、企業裏戦略として重要なんじゃないかな。

それから、いくつかのデジカメはUSBやFireWireやWi-Fi経由でコンピュータからコントロールできます(それがI2 ISを買った理由でした)。もちろん、Maxからもコントロールできるので、いろいろと発展できそうでしょ? この手のことにCanonは積極的だったような気がするけど、最近は対応状況(コンパクト・デジカメ一眼レフ)を見る限り、縮小傾向にあるみたいで、ちょっと寂しい。

Wormhole2で風穴を開ける

インターネットでのオーディオ送受信のためのプラグインWormholeが、フリー&オープン・ソース化されて、Wormhole2として公開されています。VST(Mac/Win)およびAudioUnitに対応ね。入力または出力として使える他、インサートとして使ったり、マルチ・チャンネルで立ち上げたりできるので、なかなか使い勝手が良いです。

wormhole2.png

個人的にもThe Breadboard Bandでも日本国内や海外(イギリス、韓国)との間で、リアルタイム・セッションをしたことが何度かあって、オーディオ・ネットワークには興味津々なのです。当然のことながらレイテンシー(遅延)は馬鹿にならないんだけど、レイテンシーを前提としたセッションの在り方って、まだまだ追求すべきことがあると思うな。

Jit-ogreでアニメーション

Robert Ramirez氏らのJit-ogreプロジェクトからOGREによるアニメーションをJitterで利用するエクスターナル・オブジェクトrr.gl.ogreがリリースされています。Jitterだけでもjit.gl.modelでモデリング・データを読み込んで、グループごとの操作はできたのですが、これってとっても面倒でした。例えば、3Dモデルの人が歩いているアニメーションをJitterで実現しようとすると、できなくはないけど、結構途方に暮れちゃいますよね。

そこで、3DCGソフト(BlenderからMayaまで数種類に対応)で作成したモデル、テクスチャー、アニメーションといったデータをエクスポートして、OGRE (Object-Oriented Graphics Rendering Engine) というレンダリング・エンジンを使ってJitter上で動かそうというのが、このオブジェクトです。サンプルでは忍者が舞い踊ったり、魚(鱒?)が泳いだりします。

rrglogre.jpg

Jit-ogreのサイトにはムービーや説明があるので、まずはこれらを見ると良いと思います。既にかなり多くの機能が盛り込まれていますが、まだまだ拡張されるようです。難点としては、操作が複雑(多機能の代償)であったり、不備が目立つ箇所があることかな。しかし、Jitterで3Dモデルのアニメーションを行なうには、現時点では唯一最強のオブジェクトですから、この手のことをしたい人の救世主になりそうです。

もっとも、OGREやJit-ogreの機能だけでなく、モデルやアニメーションなどのデータを作成すること自体が難関ですから、簡単にはコトは進まないでしょうね。これに限らず、3DCGの世界は一筋縄ではいかないイバラの道です。御愁傷様〜