AR勉強会(コンピュータビジョン・拡張現実感に関する普通じゃない勉強会2.0) に出席 (6/20)

土曜日は、コンピュータビジョン・拡張現実感に関する普通じゃない勉強会2.0 という勉強会に参加しました。
生田にある明治大学で開催。

この勉強会は、主にARに関する勉強会です。 AR(Augmented Reality) は、日本語では拡張現実感 などと訳されrますが、私がARという用語を知ったのは、ニコニコ動画ARToolKit のデモ動画。
机の上をWEBカメラで撮ると、画面上には、机の上に初音ミクが出てくるというものです。 見た方が早いですね。これです
D

ニコ厨、ミク厨の方は一度は見たことあるのではないでしょうか。ARは広義に捉えればもっと幅広いのでしょうが、おおざっぱにいえば、このような技術なのでしょう (適宜突っ込みのコメントをいただけると幸いです)
ちなみに、最近はPTAMという技術を使って、マーカーを置かなくてもミクを出せるようになりました。科学の限界がどんどんと延びていきます
D

ミクを画面上に出すというのは、ARを使ったツールのデモなのですが、やっぱりニコニコ動画で注目されたのは大きいのか、ARという技術の将来性に注目したのか、この勉強会は大盛況。 去年は48名だったのですが、今回は200名。会場も急遽大学の大教室に変更。こんな規模の勉強会をボランティアベースで運営されるのですから頭が下がります。


朝10時から5時までトークセッションと発表13件とみっちりとした勉強会です。 でも実際に動くものが目の前にあるし、内容も興味深いし、みなさん話術に長けていて、眠くなること全く無く最後まで刺激を受けつづけました。


トークセッション

八谷和彦さん(ポストペットの作者で、最近はメーヴエを実際に飛ばしていることで有名ですね)とAR、メディアアートの学際領域の方(慶応大学の稲見先生、科学技術振興機構の福地先生、工学ナビ主宰の橋本さん)による、 「リアルとリアリティってなによ?」というトークセッション。
リアルとリアリティの違い、日本語で言えば、現実と現実感の違いですが、考えたこと無かったなあ。
現実感とは、「本物に似せていく」というより「本物よりもの本物らしい」というように考えられるそうだ。
話は「幽霊は現実感?」など哲学的な方向にも入っていったけど、話が面白く引き込まれていく。

いろいろな実験画像も流されていたな。特に興味を持ったのは、八谷さんが紹介された「人間リモコン」。
人間の感覚器は容易にハックできるそうで、例えば耳の後ろに電極をつけて弱い電気をながせば水平の感覚を狂わすことができるそうで、リモコン操作で被験者の歩く方向をコントロールできるそうだ。 面白いというか怖いですな8笑)

途中でまさかのサプライズの、電脳コイルの磯監督登場


■ テーマセッション

ARの次に来る「R(リアリティ)」って何よ?というテーマで9つの発表。

・WIMPAR: 実世界でGUIを使いたい

先ほどの「PTAM」の技術を使って、GUIを試作していました。

LEDが載った基盤を WEBカメラで撮影すると、PCの画面では,基盤の画像の上に基盤を操作するUIがスーパーインポーズされてます。 たとえば基盤に載っているLEDを PCの画面上でクリックすると、LEDの点灯/消灯をコントロールできる なんてことができるもの。

応用範囲の広さを感じた発表でした。


SR 二次元に入ってみた

画面上のキャラクターを手で操作するという技術。
カメラで手を検出して、画面上のキャラクターを押したりつまんだりするという技術。

そういえば、以前 大量のマリオを手で操作するという動画がニコ動にあがっていましたが、あれと同じルーツの技術ですな。

「実空間に仮想の情報をスーパーインポーズする」というのがARの定義と思ってしまいますが、タイトルにあるとおり、「仮想の空間の中に割り込んで操作する」というのもARの一つなのでしょう。


作者も検出する手法もちがうけれど、去年のCEATECパナソニックが展示していたこれ(動画の後半)も同じコンセプトですな。
D

最後に「二つの脂肪をもんでみるデモ」などというから、あーなんというエロ(笑)とおもったら、例のゆっくりキャラ(まりさ とれいむ) でした。釣られた。

AR関係者は東方ネタが好きなのか、3つの講演でゆっくりキャラがでてきました



たしか、ここで昼休み。 明治大学の生田キャンパスは、陸の孤島 周囲の雑音に邪魔されない研究環境のため外で食事を取ることが不可能。 土曜日も大学食堂が開いています。 久々に大学食堂で食事。ハンバーグランチ400円なり。 まあ、普通の大学生協の味かなあ。

その後、ホストをされている宮下研究室の研究室公開を見学。
学生がデモをしています。 サンプリング書道、四次元ゲーム、不可視立体の可視化など、メディアアート系の研究室らしい研究成果を展示していました。学生の方にとっても、説明の機会が多く与えられるのは幸せですね

http://miyashita.com/


AR: 全周囲裸眼立体ディスプレイを用いた2Dループゲームの提案

360度の3D空間を表示する装置が東大にあるそうですが、その装置を使って、シームレス2Dゲームを作ってみた という発表。 まさに「施設の無駄づかい」(いい意味で)

前と後ろがつながっているので自分が打った弾が後ろから自分に当たるなんてことも。

これを思い出しました。

らばQ:貼ると初めて意味の分かるポスター
http://labaq.com/archives/51207676.html


PR:拡張現実戦争 見えざる星の海、東京へ

おお。登壇者が、ダースベイダーというか、闇の帝王のようなコスプレで登場。
フリーダム!

でも中味は充実。
去年行われた「電脳スターラリー」 http://star.yuiseki.net/ を拡張して、今度は街中で宇宙戦争
行おうという企画のコンセプト発表。

iPhone 3GS を端末として想定しているそうだ。iphoneGPS地磁気センサのから緯度経度、iphone の傾きが割り出せる。 たとえば秋葉原上空に敵艦隊が襲来 というシナリオだと、秋葉原の方角にiphoneを向ければ画面には敵艦隊が映し出されるなんてことができるらしい。 そんなときは実際に近くにいって仮想的に高射砲で応戦などするのだろうか。 サイバー鬼ごっこみたいでおもしろそう


JR: モバイルデバイスを空間にしてしまおう

PDAの裏面にもタッチパネルをくっつけて、 PDAに表示されている物体をつまんだりする という直感的なインタフェースの提案でした。

内容も興味深いけど,登壇者の 「Tシャツ」と書かれたTシャツに目がいきました。


XR: AR Cooking素材の組み合わせは∞

AR Toolkit のマーカーを使った幼児教材の提案。
へー。こういう応用範囲があるんだ。

AR Toolkit のマーカーを4つのカードに分割しておき、カードを4枚くっつけると、画面には完成品が表示されるという仕組み。

料理素材をカードにして、4つ組み合わせると、それにマッチした料理が表示されるのですな。
ただPCの画面に表示されるだけじゃなくって、いま並べたカードの上に料理の絵が出てくるから、インパクト大というところですな。 子供ならいろいろな組み合わせで試して遊びそうだ!


πR 盛り上がるディスプレイ

いろいろな意味で今回の目玉だったのではないだろうか。この発表。

液晶ディスプレイの上に透明な弾性体(固いゼラチンのようなもの)を載せる。弾性体をつまんだ場所と強さを検出する方法があるので、弾性体をおせば、画面上にインタラクションができる というもの。

原理としては、弾性体を押すことで光の偏向特性が変わるので、偏光フィルタを配したWEBカメラで画面を写していたら、押した場所、強さを検出できるというもの。
http://www.wiss.org/WISS2008Proceedings/papers/paper0019.pdf

非常にまともで応用範囲が広い研究ですが、なんかアレゲな目的に使えてしまいそうですね。
当日の発表では、女体の形をしたゼラチンが登場。 あう、 もろその用途(笑)。
当日のtwitter 上では「そもそもどうやって、その型取ったんだ!」というのが話題になりましたが、懇親会で疑問解消。 そういう形のペットボトルがあり、それで型をとったということ。 ... ってそんなペットボトルがあるのか!

もちろん、エロ目的の研究ではなくって直感的なインタフェースを開発するというのが目的です(念のため

AVR: ARを用いた身体感覚改造レッスン いつか出会う「あっち」の世界の嫁のために

哲学的な講演だったな。

「感覚を研ぎ澄ませば、データもリアルとして体感できるはず」という話。

事例として、一流のネットワークエンジニアは、パケットを見続けていると、いつのまにかインターネットの世界に入り込んで、 イーサネットのダンプを眺めているだけで、攻撃の予兆を知ることができるなんて例も挙げられていた。会場からは「マインドハックの一つだね」というコメントも。

∀R 生と死を超えるリアリティ

これも哲学的な話。 研究者が人生をかけて作り上げたいものの話。

祖母の死を経験して、死んだ人とバーチャル空間上であいたい(本当に死んだ人に会えるように「この世」を拡張したい) というモチベーションから、何かできないかという宣言。

ARとは関係がないけど、 科学の発達は、宗教に負うところが大きいからなあ。「現実世界に天国を作り出したい」というのが、ルネッッサンスの文化発展の原動力だしなあ。 オカルトチックでもなくて、モチベーションとして正しいのだろう。


SpaceNavigator をGLUT

入力デバイスコレクターのまおさんによる SpaceNavigator というgoogle earth 用の入力デバイスWindows 用のドライバを作ったという講演でした。 (あまり内容を理解できず。。。)

多数のセンサ、クリエータと技術者を結ぶオープンソースプロジェクト KAKEHASHI

ニコニコ技術部で活躍されているksasaoさんの講演。 先日は、ニコニコ動画データ分析発表会 でも講演を拝聴したなあ。MakeTokyo でもお見かけしたし、あらためて多才な人だとわかった。

電脳サイバーラリーでつくった、センサーデバイスの入出力とPC側のプロセスとのメディエーションのミドルウエアの提案のようだ。 実世界を相手にするセンサーデバイスは、プログラムから見ると、応答を返さない
遅れるなど不安定な要素が多く、その例外処理が大変らしい。そいった一番ややこしい部分を吸収するミドルウエアを提供することで、ARの分野に多くの人が参入できるような下地を作りたい とのこと。
モチベーションとして、 電脳コイルの世界を早くつくりたいということがあるらしい。

いろいろな数字がでてきた。
初期のGoogleのディスク容量は150GB 。 今となってはわずかな量。
東京都を1mmメッシュで記録するには1700TB。 今はまだ膨大だけど、電脳コイルの舞台である2015年頃にはチップに載るぐらいになるはず。
なので、2015年ぐらいまでにはAR技術を発展させて電脳コイルのメガネ実際に作ろうじゃないかということみたい。

touchBox マルチタッチできる箱を作ってみた
アクリル板と赤外カメラを使うことで、マルチタッチディスプレイを安価に作ったという発表。
100万円ぐらいのものが、自作だと10万円ほどでできるそうだ。 FTIR(Frustrated Total Internal Reflection) という原理を使っているそうだ。

技術自体は講演者の arc@dmz さんのページに詳しいです。
http://digitalmuseum.jp/software/nui/

こういう普段は触れることの無い技術を知ることができるのも醍醐味の一つ。

OpenCVをさらに簡単にするライブラリ 車輪の再発明に終止符なるか
工学ナビ 橋本さんによる発表。

画像処理の分野でデファクトになっているライブラリ群 OpenCV のラッパプログラムの発表。
OpenCVは簡単に使えるとはいえ、それなりの Cプログラミングのスキルは必要で、 メディアアート系からこの分野を志望する学生にとっては最初のハードルが高く、本来の研究よりもプログラミングを理解する時間がかかってしまうらしい。

そのため、難しい部分(ポインタ操作など)を隠蔽したラッパプログラムを開発したとのこと。
そのうち公開されるとのことで、楽しみですね



セッション終了後は懇親会に移動。同じキャンパス内の大学生協で行われました。
面識がある人はほとんどいなかったし、世代も離れて(多くが学生でした)いましたが、ARネタ中心にいろいろと盛り上がってお話できました。
懇親会の出席をちょっと躊躇してたけど、やっぱり出て良かった。



ARについては、大学の研究室やニコニコ動画ニコニコ技術部)では盛り上がりを見せているけれど、企業を含めた幅広い展開にはなっていないように思う。
動画に仮想キャラをスーパーインポーズしたり、インタラクションするという技術は確立してきているけれど、「何得」状態な気がする。その仕組みを使って、今の世界のどんな問題が解決され、もしくは新しい何ができるのか というのがまだ無いのかなあ。 インターネット関連の技術だと、「速くなる」「安くなる」など直接的なメリットがあり、分かりやすい技術が多く、普及していったけれど、ARもそのように分かりやすいメリットがでてくるかがポイントだな。
技術的には成熟してきているから、ちょっとしたきっかけでこの分野はブレイクしそう。 ARの分野はニコ動で楽しみながら、その進展をウォッチしていこうっと。 あ、そうそう。棚上げになっているARToolKit の学習もしなければ。