「HSRハッカソン2015 in MEGA WEB」(発表会後半)
「HSRハッカソン2015 in MEGA WEB」発表会の続きです。ここでは後半のチームの発表をご紹介します。
後半トップバッターはCチーム「Ho-Ryu/サンリツオートメイション」
開発したのは「HSR」でペットを見守るというアプリ。ただ勝手にペットを見守るのだけではなく、チャット機能を使うことで、外にいても「HSR」と対話をして、位置やバッテリー状況、写真の撮影などが出来るようになっています。今ペットが今どこにいるかも分かるわけです。
もう一つトライしたのが細い柄のはたきを「HSR」に持たせるということ。ペットをじゃらす為に使えるのですが、細い物を持つのは得意では無い「HSR」なのですが、もし失敗した場合でも修正しリトライ機能を持たせているということ。結果として成功していました。薄い物も取れて、細いものも持てるってスゴイ!!
成功した写真は撮れなかったので、トライしている写真です。
続いてGチーム「Team Nishida-Lab」
テーマは「遠隔地での没入感提供アプリ」とのこと。実際は「HSR」を遠隔で操作をしているのですが、視覚をOulas Riftを付けて立体にし、動作に関してはゲームなどで使うジョイスティックとKinectでジェスチャーを認識させることで、あたかも直ぐそこにあるような感覚を持たせることが出来るようになっています。
特にOulas Riftは「HSR」の首の部分と連動しているので、人間が上下左右に首を振れば「HSR」も同様な動きを行います。またマーカーがついてるものは「初音ミク」で表示され、近づけば「初音ミク」も大きくなって距離感も把握出来るようになっています。
木の影に「HSR」は隠れてしまっていますが、ジェスチャーで操作が出来ています。
後半3番手はDチーム「MPRG」
「HSR」がマーカーが無くても物を取り、特定の笑顔の人だけに物を渡すというアプリを作成しました。人間では簡単そうでうが、ロボットではそうもいきません。このアプリ、裏ではクラウド側で画像解析技術やDeep Learning
を用いて顔を認識して、その人が誰かまた属性などを含めて分析をして「HSR」に反映させるということを行っています。
この様な画像認識などは、多くのデータを用いて分析する必要があるためクラウドサービスのほうが優秀だったりします。
いざ実際にHSRを動かしてみると上手く行かず…。残念です。
発表会ラストはHチーム「JSK-Jr」
仕事で働いているお母さんとカギっ子を「HSR」が繋ぐというコンセプトを持った「お母さんシステム」です。GUIを用いた管理画面から「HSR」にスケジュールを設定します。
例えば「16時になったら宿題をしたかを促す」、「19時に食事の配膳をする」と予め設定しておくことで「HSR」がお母さんの代わりをしてくれるようなものとなっています。
単に動作だけではなく、「HSR」を喋らすことも出来たり、子供の画像を確認できたりするので安心してお母さんも仕事が出来るという訳です。
「HSR」の動きもさることながら、スケジュールなどを設定するUIが優れものでした!
全8チームの発表会が終了。と同時に採点も終わってしまったのですが、エキジビションとして「HSR」の機材トラブルで動かなかったAチーム「豊橋技術科学大 行動知能システム学研究室」のリトライを行うことになりました。
おぉ、ちゃんとフライパンを人に差し出した上に、ヒーターの上で振って、最後はお皿にフライパンを傾けて移した!
審査員の方も「持ち時間の時に見られたら、評価が変わってたかも知れない」と仰ってました…。
またまた長くなってしまったので、表彰式は改めて。
2015年9月16日
※初出時にチーム名が間違っており修正させていただきました。ご迷惑をお掛け致しました。