2015/07/01 アンジェリカさんを囲む会に行ってきました。
![](https://staging.robotstart.info/wp-content/uploads/2015/08/n142-01.jpg)
![](/assets/img/n142-01.jpg)
アルデバラン本国のエンジニアのアンジェリカさんが来日されましたので、囲む会が開催されました。
![](/assets/img/n142-02.jpg)
場所はおなじみ秋葉原のアルデバランアトリエ。
![](/assets/img/n142-04.jpg)
アンジェリカさんはロボットの目の前にいる人間の感情を推測する部分を作っているソフトウェアを担当したそうです。
![](/assets/img/n142-03.jpg)
今回、開発者自らからその機能を説明いただけるという貴重な機会です。
![](/assets/img/n142-06.jpg)
[Preload Mood]ボックスと、[PersonState]ボックス。
![](/assets/img/n142-07.jpg)
[Get Mood]というボックスはPepperが目の前の人を3秒見て、そこから人間が positive・nagative・newtral・unknown のどの状態かを認識、判断してくれるというものです。そのあと[Switch Case]ボックスで分岐させます。
![](/assets/img/n142-08.jpg)
その状態は、Pepperのタブレットにリアルタイムのグラフでポジティブ・ネガテイブが表示されます。
![](/assets/img/n142-11.jpg)
みんなで、Pepperにいろいろな表情を試してみてグラフがどう変わっていくか試してみました。これは面白いです。
![](/assets/img/n142-10.jpg)
この仕組みは、目の前の人を7つの項目(Facial expressions,Speech semantics,Touch,Head angles,Vocal emotion,Laughter,Distance)からからポジティブかネガティブかを判断しているそうです。
![](/assets/img/n142-09.jpg)
この7つの項目で一番優先されるのは、表情だそうです。
![](/assets/img/n142-12.jpg)
この後、アルデバランのKawataさんから、Pepperデベロッパープログラムのアップデートについてお話がありました。近日中にデベロッパー向けにいろいろとあるそうなので、要チェックですよ。
ABOUT THE AUTHOR /
北構 武憲![](https://robotstart.info/wp-content/uploads/2016/12/22b57688de915dae9fe51db841b3079f-82x82.jpg)
本業はコミュニケーションロボットやVUI(Voice User Interface)デバイスに関するコンサルティング。主にハッカソン・アイデアソンやロボットが導入された現場への取材を行います。コミュニケーションロボットやVUIデバイスなどがどのように社会に浸透していくかに注目しています。