近づくと木や柱の陰に逃げて隠れてしまう恥ずかしがり屋の子供をイメージして作りました。 人が近づくと板の裏に隠れ、こちらの様子を伺うようにちょっとだけ体を見せるという動作をします。 またロボットを放っておくと、逆に人に近づいてくるという動作を取り入れることで愛らしさを感じれるようにしました。
重心揺動計をコントローラとしてロボットを操作するデモです。揺動計に載った人の重心の基本位置を計測し、人間が前後左右に重心を移動させるとロボットも前後左右に移動します。効果音でコントローラの状態を提示したり、乗った人に合わせて重心の基本位置を導出することによって、機械の知識がない人でも気軽に操作できるような直感的なインターフェースを目指しました。ヴァーチャルビジョン等と組み合わせることによって、遠隔操作での利用もできるのではないかと思っています。
カメラ画像から油圧ショベルのバケット内重量を推定するシステムを作りました。 まず、バケット内を写したカメラの画像から、バケット内の内容物及び内容量を CNN(Convolutional Neural Network)によりそれぞれ推定し、それらの推定結果 から重量を推定します。
本システムはロボットに搭載した3D-URGのみを用いて、人間や他の様々な物体を 判別する。まず、3D-URGで取得した点群を2次元平面上に射影し、水平方向を横 軸、高さ方向を縦軸とした画像を生成する。また、奥行方向はグレースケールの グラデーションにより表現する。この画像を利用し、Deep Learningを用いるこ とで物体の判別を行う。学習データのクラスには、人間、丸太、脚立、ゴミ箱、 掃除機、椅子等を用意した。今回のデモンストレーションでは、2つの指定した 座標にそれぞれ人間とそれ以外の物体を設置し、各物体を判別した後、人間のい る座標までの走行を行った。
レースゲーム用のハンドルコントローラを使って移動ロボットを操縦できたら楽しく、遠隔操縦でも自動車のように操作しやすくなるのではないかと考え、遠隔操作でロボットを動かすシステムを作りました。TCPでコントローラの情報、障害物の情報を操縦者のPCとロボット間で送受信し、UDPでロボットに取り付けたカメラ映像を操縦PCに送信してシステムを実現しています。コントローラのアクセルの踏み込み量に応じて自然に加速するように速度を調整しました。また遠隔操作を支援するためにレーザースキャナを活用し、周囲に物体がある場合は一旦停止しバックするようにしました。