Tech-Circle#7 Pepper ハンズオンに行ってきました。
Tech-Cirecleさんが主催した「Tech-Circle Pepperで機械学習体験ハンズオン勉強会inアトリエ秋葉原」に参加してきました。
場所はロボットスタートもよくお世話になっているアルデバラン・アトリエ秋葉原 with SoftBank。
Pepperの興味と「機械学習」という旬なテーマを組み合わせているのもあり、当日は満席でした。
勉強会の講師はshiracoさんが務めてくれます。
ちなみに、この勉強会の前に宿題が出されていました。
既にこの宿題だけでも非常に為になります。
この勉強会のゴールは
「PeepperからWeb APIを活用できるようになる→Pepperをクラウドに繋いで、賢い対話アプリを作れるようになる」
という、もの凄く明快なものです。
ちなみに、参加者方の1/3は実物のPepperに触るのは初めてという方でした。
Pepperの説明をひと通りして、なぜPepperなのかという話に。
理由としては
・ユーザーが検索できないことを対話で導ける
・体全体を使ってジェスチャーでユーザーへ伝えられる
・様々なセンサーを利用してテキスト以上の情報を取得出来る
という点を挙げられていて、その中でも「対話のインターフェイス」としてPepperは非常に高い評価をされていました。
簡単に機械学習についての説明がありました。
「機械学習とは人間と同様、経験(データ)によって学習して賢くなるアルゴリズム」とのこと。
そして身近な機械学習が導入されているシステムについて例を挙げていただき、機械学習のタスクについても解説がありました。
この解説もの凄く分かりやすかったです!
本日のハンドオンで利用するAPIの紹介です。
Google Spech API→音声をテキストに変換してくれる
ReKongnition API→顔画像から年齢、性別、人種などを判別してくれる
この2つのAPIをPepperから接続してデータ取得しようというのが具体的な目標になります。
Choregraphの基本的な考え方と操作方法などを解説して実際にハンズオン開始です!
先ずは、Pepperに接続します。
参加者に対してPepperの実機が少ないので、3人に1台という感じです。
続いて「対話の基本を抑える」ということで、Speach RecoとSayでPepperとの対話、Dialogを使ってPepperから質問に答えてみるをハンズオンしてみました。
しかし、やっぱりPepper単体ではそれほど言葉の認識率が良くないので補完するために、Google Speech APIを使ってみることにします。
ここでPepperからWeb APIを呼び出す基本と、クラウドでの音声認識方法を学習します。
実際に接続してみると、Pepper単体よりやはり認識の精度は上がっている感じです。
続いて、クラウドの画像認識の方法を学習するのでReKognition APIを使って、年齢と性別を取得して喋ってもらいます。
なかなかPepperのカメラに写らなかったりしましたが、ほぼ年齢と性別を取得できる様な形を作ることが出来たみたいです。
ということで、勉強会は今回ここまで。
そしてライトニングトークのセッションへ。
ロボットパートナーの太田さんが「Pepperとの暮らし」を話してくれました。僕らはいつも見聞きしているのですが、やはり初めて聞く方には衝撃的だったのか随所で笑いが巻き起こってました!
「機械学習体験」ということで気構えてしまったのですが、そんな堅苦しいことは一切ありませんでした。
アルデバラン・アトリエ秋葉原 with SoftBankのワークショップでもAPI接続についてのコースがまだ用意されていないので、もの凄く充実した有意義な勉強会だと感じました。
ちなみに今回の勉強会で使用したスライドはslideshareで公開されています。もの凄く充実しているので一度ご覧ください。
合わせてQiitaでも勉強会の内容が掲載されていますので、もっと突っ込んで知りたいという方はこちらもご覧ください!
講師はshiracoさん、スタッフのみなさん、参加された皆さんお疲れ様でした。
是非Pepperと絡めた勉強会をまた開催してください!!