JIBOについて勉強してみました(前半)
先日オープンしたロボットスタート公式 Facebookはいいね!数が500を超えました。皆様ありがとうございます。(いいね!し忘れている方は、こちらからどうぞ!)
そこでロボット関連のFacebookをチェックしていたら、JIBOのいいね!が4万を超えててこれはすごい!ということで、今回はJIBOについて調べてみました。
JIBO公式サイトで写真を見てみると、半円形のディスプレイが印象的な形状。大きさは約28センチ、重さは約2.7キロなので、机に置くのにちょうどいいサイズかと。
ロボットというとALDEBARAN NAOのような人間型ロボットかな?と予想してたんで、面食らいました。
このJIBOを使って何ができるのか?公式サイトにはこのように書かれてます。
・See(見る)
2つの内蔵カメラで、人間の顔を追跡・写真を撮る・ビデオ通話が可能。
・Hear(聞く)
人間の声を聞き、自然言語処理を行います。
・Speak(話す)
ハンズフリースピーカーで、リマインダーやメッセージを話してくれます。
人間が忘れてもJIBOが代わりに覚えてて、音声で伝えてくれます。
・Learn(学習)
人工知能アルゴリズムを搭載。持ち主の好みを学習します。
・Help(お手伝い)
パーソナルアシスタントのように、持ち主の日常的なタスクを手助けします。
・Relate(理解)
持ち主の自然な感情を理解します。
興味深いのは、最後の「Relate(理解)」。ロボットが持ち主の自然な感情を理解してくれたら、愛着湧いちゃいますね。でも、どうやって自然な感情を理解するんだろうか…?
これらの機能を使って具体的にどういうことをしてくれるのかも、公式サイトに書かれてました。
・Assistant
重要なタスクやイベントをお知らせします。
・ Messenger
家族のメンバーを認識し、それぞれの人に適切な時間と場所で適切なメッセージを送ります。
・Photographer
自然な笑顔などを検出して写真を撮ります。
・Avatar
相手が同じ部屋にいるかのようにビデオ通話が行えます。
・Storyteller
グラフィックや動きでインタラクティブなしゃべりを行います。
・Companion
心をこめて役に立つことで、持ち主は笑顔になりいい気分になるでしょう。
最後の「心をこめて役に立つことで」って、どうやってロボットが心をこめるのか、これまた疑問は深まるばかり…。
ロボットが人間の感情を理解したり、心を込めた動きができるんだろうか?と思っていたら、JIBO開発者のシンシア・ブリジールさんによるTEDで疑問が解決しました。
1997年にMITで人工知能を勉強していたシンシアさん。当時のロボット工学はモノとモノとのやり取りを想定したもので、人間とのやり取りはされていなかったそうです。
小さい頃にスターウォーズを見て以来、パーソナルロボットいうアイデアに魅了されていたので、ロボットをパートナーとして接してくれると意識を変えてみると、新しい問いかけや可能性が広がりました。
では、どうやってロボットが心を込めた動きをするのか? TED の中で実験の様子が披露されています。
人間は目の前の相手と会話するとき、コミュニケーションのために言葉とともに自然と身振りや動きを行います。そこでそういう言葉にならないボディーランゲージをロボットに学習させて仕草をさせてみたら?
結果、人々は会話だけをするロボットよりも反応がよかったそうです。
ロボットをどうやって魅力的にするか、人間にとって親しみが持てるロボットをつくるかの試行錯誤の様子がTEDで伝わってきました。
今回は以上で。次回、中編に続きます。
ABOUT THE AUTHOR /
北構 武憲本業はコミュニケーションロボットやVUI(Voice User Interface)デバイスに関するコンサルティング。主にハッカソン・アイデアソンやロボットが導入された現場への取材を行います。コミュニケーションロボットやVUIデバイスなどがどのように社会に浸透していくかに注目しています。