メガネを掛けた人にしか動かせないロボットを作りました。長いフレームの先に取り付けられたwebカメラで、前に立った人がメガネを掛けているかどうかを認識します。そして、その人がメガネを掛けている場合のみ、LiDAR(URG-04LX)の点群をもとにロボットが付いてきます。顔認識にはHaar-like特徴分類器を、メガネの有無の認識にはCNNを利用しました。このCNNは、Web上からメガネありの人となしの人の画像をそれぞれ1万枚程度収集したものを学習しています。
現実世界でロボットを操作して戦うシューティングゲームを作りました。プレイヤーは山彦ロボットをジョイスティックで操作して戦います。敵機として別の山彦ロボットが走行していて、それを測域センサで検出することで現実空間とゲーム空間を繋いでいます。ゲーム開発にあたってはゲームエンジンは利用せず、ROS上で1からプログラミングしました。プログラミングにおいては敵機の検出、弾丸の生成、当たり判定、画像描画をリアルタイムに高速処理できるように工夫しました。ゲーム画面はOpenCVで画像描画して、その画像をrviz上で表示しています。
鳥にだって辛いときはある。鳥が鳴いて助けを求めたら他の鳥(山彦に搭載)が助けに行く……予定だったが実装が間に合わなかった。 助けを求めた鳥に同調して他の鳥も鳴く。ああ、ひとりじゃなかったんだ…。そう思えた鳥は鳴くのをやめる。よかったよかった。 でもこのロボットは決して助けを求めた鳥の元に駆け寄ることはない。口先だけは慰めてくれても労力を割いてくれる奴はいない。いつだってそう。 それがわかっていても慰めが欲しくて今日も鳥は鳴く。ファーーーーーーーーーー ファーーーーーーーーーー
やまびこ(移動型ロボット)にアームを取り付け、今年が令和元年なので壁に「レーワ」と書かせました。ロボットは壁との距離を一定に保つようURGセンサの値によってPD制御されます。今回アームに使用したサーボは二つのみです。そのため、ロボットは筆先に対して位置制御のみ行い、姿勢は考慮しません。従って、ロボット自体の距離が一定である一方、筆先が初期位置から上、もしくは下に移動するほど逆運動学上で筆先の座標として計算している筆上の点より先のペン上の点は壁から遠ざかってしまうことになります。今回はその補正をプログラム上にて行ったため、書いた文字が不自然に「レLヶ」と歪んでしまいました。この事を解決するためにはプログラム上の補正を正確にするか、サーボを一つ増やす、などの改善策が考えられますが、筆は本来面に対し立てたまま使用するべきであり、後者で壁に対し常に垂直となるよう姿勢を制御するというのが良いと考えられます。また、そのようにすることで、筆圧等をより考慮して美しい文字を書かせることが出来るかもしれません。
RGB-Dカメラを用いて、画像から選択された任意の目標を追跡できるロボットシステム を開発しました。Kernelized Correlation Filterというトラッキングアルゴリズムを用いて 、GPUなし、FPS100くらいのビジュアルのみのトラッカを実現します。その後 Dynamic Inversionに基づくコントローラで速度フィードバック付きの安定制御を行いま す。