第6回U1K in ダイビル観戦記【入場】
さてさて、ここ秋葉原は曇り模様。本日は第6回秋葉原u1k大会、いつもはASIMOが常駐しているスペースにて、本日14時30分よりスタートです。
……なんですけど、イベントが始まる前に、いきなり目に入ってきたのがこちら。
ノートパソコンと黒いロボット、そしてその前に置いてある黒いバーはX-BOXのオプション、kinectです。
結論から先に言うと、ロボットが目の前に立っている人と同じポーズを取る、と言う、そういうシステムなんです。カメラの前に人が立つと、それが誰でも、センサーとか別になんにも付ける事なしに、すっごいスピードで認識してロボットが同じポーズを取っちゃうのです。
そう、なんにも知らずに、たまたま前を通った人と同じポーズを取っちゃうくらいの勢いで! すごい! 赤上げて!白上げて!
さてとりあえず、もうちょっと詳しく(聞いた限りのことを)説明しますと。まず黒いロボット、これは本日のU1Kを主催されているアールティさんの新商品、RIC30です。
これ自体はベーシックな編成の二足歩行ロボットですが、二足歩行ロボットの制御システム・V-sidoのリファレンス用ロボットとなっています。V-sidoは動くユニコーンガンダムを作っちゃったりして有名な吉崎さんが製作したコントロールシステムで、もちろん横のノートパソコン上で動いている(そしてロボットを動かしている)のが、そのV-sidoそのものです。
さて、ノートパソコンとつながっていて、RIC30の前にあるのは、おなじみkinect。カメラを使って人間の動きを感知する、あのX-BOXの周辺機器です。というわけで、kinectが感知した人間を、ノートパソコン上のV-sidoが解析し、最終的にRIC30に動作データを転送する事で、カメラの前の人とロボットとが同じポーズを取る、と言うデモが完成するわけなのです。
これはkinectの動作をモニタしている画面。右側に映像が、左側の棒人間みたいなのは、そこから分析して得た人間の、なんていうんでしょう、ボーンのデータ。それをV-sidoに送ると、下のウィンドウにあるロボットの3Dモデルがわきわき動く、と言う感じになっています。
kinectを使ったコントロールは、特に人間を認識させる事前認識の作業が難しく、競技で使う時には準備に時間がわりとかかるのが難だったのですが、どうしちゃったのと思うくらい早いのが特徴。認識用のポーズを取る必要もなく、それどころかうっかりカメラに映り込んでしまうと、分析されてボーンが映ってしまいます。やめろ! 俺を解析するな! くらいの勢い。ほんとびっくり。
詳しい仕組みは、てへへ、わかりかねますが、画面と今まで聞いた話からするに、たぶん腕先とかの末端部の位置を取得して、それに合わせて肘とかの位置を調整しているんじゃないかと思います。なので腕先の位置はだいたい忠実でも、肘の向きが違う、と言う事はありますね。
また、カメラに複数の人が映り込んだ場合、二人までボーンを解析しているみたいなんですが、その二人のデータのどっちかに追随したりするので、なかなかに見ている方が混乱する事もありました。
ちなみに会場で動かしていたのは主に腕ですが、落ちたりすると危ないので制限をかけているだけで、本来は下半身や脚のデータなども、ばっちり取得して再現可能なのだそうです。なんというモビルトレースシステム。
というわけで、イベントが始まる前からかなり興奮してしまった塩梅のU1K大会。続いては本編のお話です。
| 固定リンク
「ロボット」カテゴリの記事
- 【ロボットイベントレポート】第27回ROBO-ONE Light観戦記【結果速報】(2025.03.09)
- 【ロボットイベントレポート】第43回ROBO-ONE観戦記【結果速報】(2024.09.23)
- 【ロボットイベントレポート】第42回ROBO-ONE観戦記【結果速報】(2023.09.24)
- 【ロボットイベントレポート】第25回ROBO-ONE Light観戦記【結果速報】(2023.03.12)
- 【ロボットイベントレポート】第41回ROBO-ONE観戦記インデックス(2022.10.02)
コメント