タグアーカイブ ROS

著者:Yumiko Suzuki

ROSワークショップ初級編を開催しました

今回も有楽町にてROSワークショップ初級編を開催しました.
ご参加いただいた皆様,お疲れ様でした!

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,社内でOSSを運用していく際の疑問点等にも随時お答えしています.

5月のワークショップ日程を公開中です!

出張ワークショップ,プライベートワークショップ,その他OSSに関するご相談も承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

著者:Ryosuke Tajima

対決!低価格LIDAR(3) ROS対応

ROS対応

RPLIDAR A2とSweepは,それぞれSDKが公開されているので自作のソフトウェアからデータを使うことが可能です.しかしやはりロボットに使うのであれば,ROSを使わない手はないでしょう.ここではROSの対応状況を見てみます.

RPLIDAR, Sweepともに,ROSドライバのコードがすでに作成されています.

Sweepはまだリリースはされておらず,ソースからのビルドが必要です.

RPLIDARはすでにリリースされているので,aptでインストールすることが可能です.

$ sudo apt install ros-kinetic-rplidar-ros

センサの起動

どちらも付属のlaunchファイルで簡単にデータを取得してrvizで見ることができます.

RPLIDAR A2:

$ roslaunch rplidar_ros view_rplidar.launch

Sweep:

$ roslaunch sweep_ros view_sweep_pc2.launch

メッセージの違い

rolidar_rosは,sensor_msgs/LaserScanメッセージを出力します.

一方sweep_rosは,sensor_msgs/PointCloud2を出力します.これは,前述したように,Sweepの計測が回転と同期していないためだと思われます.ただし,scan_tools/pointcloud_to_laserscanを使うことで,PointCloud2メッセージをLaserScanメッセージに変換することができます.

Rvizで表示

同じ場所でデータを可視化してみました.

RPLIDAR A2(10Hz)

RPLIDAR A2はデフォルトの設定で部屋の形がよく分かります.ロボットの地図生成や自律移動に充分使えることも確認しています.

一方のSweepですが,デフォルトの状態で同じ10Hzで回転させた時のデータがこちらです.

Sweep(10Hz, sample_rate=500Hz)

うーん,やはり同じ速度だとSweepの粗さが目立ちますが,しかし,なんだかさすがに解像度が低すぎないかな?

と思ってチェックしたら,sweep_rosノードのデフォルトのサンプルレートが500Hzで最大仕様(1kHz)の半分になっていることに気づきました.うーんこれはデフォルトで最大性能が出るようにしておいてもらいたいところですが,サンプルレートのパラメータsample_rateを1000に設定して,もう一度データをとってみました.

Sweep (10Hz, sample_rate=1kHz)

だいぶ詳細度が上がりました.しかし,RPLIDAR A2に比べると,部屋の形状がかなり分かりにくいですね.

そのまま,スキャン速度を3Hzに落としてみます.

Sweep (3Hz, sample_rate=1kHz)

このくらいなら部屋の形が分かりますね.回転速度が下がった分,RPLIDAR A2よりも更新周期が3倍程度長くなっています.

次は,動画でデータを比べてみましょう.

著者:Ryosuke Tajima

ROSワークショップ中級・自律移動編を名古屋で開催しました

名古屋伏見でやってます

ROSワークショップ中級・自律移動編を名古屋にて開催しました.中級ともなりますと,ROSをすでにかなり使いこなしている方が参加されていて,非常にスムースにカリキュラムを進めることができました.

自律移動の体験

自律移動編では,シミュレーション上で一通りの機能を試してもらった後,ルンバベースの教材ロボットRoomblockを部屋やオフィスの廊下で動作させて地図を作っていただき,実機での運用を体験していただきます.その後,ROSでの自律移動の構成を説明していきます.カリキュラム以外のROSやロボティクスに関する質問,疑問にも出来る限りお答えします.

自律移動ロボットRoomblock

11月のワークショップ日程を公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップ,その他OSSに関するご相談も承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

著者:Yumiko Suzuki

ROSワークショップ初級編を開催しました

今回も有楽町にてROSワークショップ初級編を開催しました.
初めてでLinux環境を準備できなくてもLiveUSBを使って完遂できました.お疲れ様でした!

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,社内でOSSを運用していく際の疑問点等にも随時お答えしています.

10月のワークショップ日程を公開中です!

10月は中級・自律移動編も実施いたします!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップ,その他OSSに関するご相談も承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

著者:Yumiko Suzuki

ROSワークショップ初級編を開催しました

今回も有楽町にてROSワークショップ初級編を開催しました.
準備万端でご参加いただきサクサクと進みました.お疲れ様でした!

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,社内でOSSを運用していく際の疑問点等にも随時お答えしています.

9-10月のワークショップ日程を公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップ,その他OSSに関するご相談も承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

著者:Ryosuke Tajima

Roomblock(5): 3Dプリンタで出力可能なフレーム構造

ルンバ,ラズベリーパイ,モバイルバッテリ,そしてレーザー距離センサといったRoomblockの部品を紹介しました.これらをルンバの上に載せるための,3Dプリンタで出力できる構造材を紹介します.

Battery stage

Battery stage

棚のような構造で,1番下の段にモバイルバッテリ,2番目の段にラズベリーパイ,1番上の段にRPLIDAR A2を載せます.動作中にモバイルバッテリが落ちてしまうことがあるので,1番下の段にはバッテリー固定用のベルトがつけられるようになっています.

Raspberry Pi stage

Raspberry Pi stage

部品をブロックのように交換したり追加したりして,機能を拡張することを狙っているので,”Roomblock”と名付けました.安直ですね.ラズベリーパイ用のボードカメラを固定するための部品も追加しました.

Roomblock's frame

Roomblock’s frame

ルンバとフレーム部分はベルクロテープで固定されているので,取り外しも簡単です.

この構造材は,比較的安価な3Dプリンタでも出力できるサイズで設計されています.確認には UP! plus2を使いましたが,ワークエリアが15cm x 15cm程度の3Dプリンタであれば,大抵の機種で出力できると思います.3Dデータ(STLファイル)は,Thingiverseからダウンロードすることができます.

Roomblockの詳細な作り方については,Instructablesで公開しています.ただし当社は,これらの内容によって生じるいかなる損害についても責任を負いません.興味がわいた方はあくまで自己責任で,チャレンジしてくださいね.

著者:Yumiko Suzuki

ROSワークショップ初級編を開催しました

本日2017年8月8日,おかげさまで TORK は設立4周年を迎えました.
皆様,いつもありがとうございます!
これからも,お客様のご要望に応え,産業・学術界でのオープンソースロボティクスの進展に寄与できるよう,より一層努力して参ります.

今回も有楽町にてROSワークショップ初級編を開催しました.
小さな疑問点にも都度お答えしながらの密度の高いワークショップとなりました.お疲れ様でした!

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,社内でOSSを運用していく際の疑問点等にも随時お答えしています.

9-10月のワークショップ日程を公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップ,その他OSSに関するご相談も承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

著者:Yumiko Suzuki

ROSワークショップ初級編を開催しました

今回も有楽町の会議室にてROSワークショップ初級編を開催しました.
参加者の方が検討中のシステムについてのご相談もお受けしました.お疲れ様でした!

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,社内で運用していく際の疑問点等にも随時お答えしています.

8月のワークショップ,いまなら間に合う!

9-10月のワークショップ日程を公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップ,その他OSSに関するご相談も承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

著者:Ryosuke Tajima

ROS + Snappy Ubuntu Core (1) : いったい何なの?

iPhoneのAppStoreやAndroidのGooglePlayのようなアプリのマーケットインフラを,ロボットの世界にも導入するためにはどのような課題があるでしょうか?ROSはその開発当初から「Robot App Store」を視野に入れてきていますが,まだ実現していません.

その中で,最近のUbuntu Snappy Coreと呼ばれる仕組みの登場は,Robot App Storeの開設に大きく貢献するのではないかと思われます.

Snappy + ROS, https://www.crowdsupply.com/krtkl/snickerdoodle/updates/1890

今後,数回に分けて,Ubuntu Snappy CoreとROSについて書いていきたいと思います.

Ubuntuの事情

ROSがメインのベース・オペレーティング・システムとしているUbuntuは,年に2回のRegularリリースがあり,そのサポート期間は9ヶ月です.また,2年おきにLTS(Long Term Support)と呼ばれるリリースがあり,サポート期間は5年です.実用を求める人は安定なLTSを使いつつ,最新技術の取り入れや新規開発はRegularリリースを使う,というサイクルが続いています.

しかし,Ubuntuが対象とするデバイスは,デスクトップPCやサーバだけでなく,IoTやルータなどのエッジデバイスにも広がりつつあります.残念ながらUbuntu Phoneはついに陽の目を見ないことになるようですが…

これらのデバイスでは,セキュリティの観点から,Ubuntuのような同期的なものではなく,もっと不定期かつ細かい間隔の継続的なアップデートが欠かせません.また,耐障害性,たとえば不具合を含むソフトウェアが配信された際にロールバックする,などの機能が必要になります.

Snappy Ubuntu Core

これらの要求に対して,Ubuntuでは,IoTやエッジデバイス向けに,(Snappy) Ubuntu Coreと呼ばれる仕組みが開発されています.

これは,OSとデバイスドライバの分離,またカーネルとアプリケーションを分離して,それぞれを独立に,細かい周期でアップデートできるような仕組みにしよう,というものです.

ROSの事情

ロボットもまたIoTやエッジデバイスの一種と見ることができるため,今後ROSでも,このSnappyなパッケージシステムが主流になる可能性があります.また,ROSのリリースシステムも,ほころびが目立つようになってきています.

これまでROSはUbuntuと同様に,同期的なリリースを行ってきました.しかし,1年に1回のリリースでは,日進月歩の技術を取り入れるのに遅れが大きすぎる気もします.一方で,ROSを業務に使用する場合には,動作させることが優先され,頻繁にアップデートしない(できない)ようになってしまいがちです.

また,ROSのパッケージは,たくさんの外部ライブラリに依存しています.外部ライブラリのAPIが変更になるたびに,ROSのパッケージもそれに対応させる必要があります.仕様が変わる場合には,パッケージを対応させた上に動作確認も必要です.

そのため,リリースされるたびに,リリースから外れていくパッケージが多くなってきました.必要だしよく使われるパッケージであるにもかかわらず,リリースのために修正が必要だけど修正作業を行うメンテナがいない,という理由でリリースされなかったり,リリースが遅れたりするケースもあります.

もしROSを搭載したロボット製品を販売しようと考えた場合,UbuntuやROSが更新されたタイミングで,どのような仕様変更や不具合が混入するかわからず,それに対応するには膨大なリソースが必要であることが予想されます.

以上のようなことから,今後はSnappyなROSシステムが主流になるのではないかと,勝手ながら予想しています.

Canonicalにお勤めのロボットエンジニアの方(Kyle Fazzari氏)が精力的に情報発信をしているのも頼もしいです.4月に公開された以下の一連のブログと動画も必見です.

著者:Ryosuke Tajima

Roomblock(4): 低価格なレーザ距離計 RPLIDAR A2

今回は,自律移動のためのキーパーツである,レーザ距離センサについて紹介します.レーザースキャナ,LIDAR(Laser Imaging Detection And Ranging)とも呼ばれます.

弱いレーザービームを発光し,物体への反射光を計測して,その時間差により物体までの距離を測ります.計測部分を回転させながら計測(スキャン)すれば,平面内の物体までの距離が計測できます.レーザービームを複数並べたり,細かく向きを変える機構を使うことで,平面内だけでなく3次元的な計測点が得られる3次元レーザ距離センサもあります.

一般的にレーザー距離センサは,2次元のものでも数十万円していたので,そう手軽に使えるものではありませんでした.しかしRoomblockで使っている SlamTech社のRPLIDAR A2 は,なんと5万円程度と破格なのです.

自律移動のキーパーツ,LIDAR

自律移動のキーパーツ,LIDAR

RPLIDAR用のROSドライバが公開されています.

$ sudo apt install ros-kinetic-rplidar-ros

として,

$ roslaunch rplidar_ros view_rplidar.launch

とするだけで,rvizで計測した点が表示されるお手軽さです.

rvizで表示した距離データ

rvizで表示した距離データ

計測可能距離は16m, 更新周期は10Hzと,高価なレーザスキャナと比べて性能では劣るものの,通常の屋内であれば地図生成や自己位置推定に問題はありません.スキャンは1度刻みで360度なので死角がありませんが,センサ上部がむき出しのままぐるぐると回転するので,動作中に触ってしまわないように注意が必要です.インターフェースはUSB2.0で,バスパワー駆動なのもうれしいところです.

laser_scan_matcherパッケージで少し遊んでみましょう.

$ roslaunch rplidar_ros view_rplidar.launch

としてセンサを起動した後,

$ rosrun laser_scan_matcher laser_scan_matcher_node _base_frame:=laser

として,センサの水平を保ちながら,ゆっくりと動かしてみます.

スキャンマッチング

スキャンマッチングの様子

初期状態ではworld座標系と一致していたlaser座標系が,センサの動きに応じて位置と姿勢がレーザのスキャンマッチングにより更新されていきます.センサを元の位置,姿勢に戻すと,だいたいworld座標系に一致しています.ただ,レーザのスキャンマッチングでは,フレーム間の移動量を推定してこれを積算するので,長く移動させるとエラーも積算されていきます.これを避けるためには,より高度な自己位置推定のアルゴリズムが必要になります.

Roomblockの詳細な作り方については,Instructablesで公開しています.ただし当社は,これらの内容によって生じるいかなる損害についても責任を負いません.興味がわいた方はあくまで自己責任で,チャレンジしてくださいね.

著者:Ryosuke Tajima

ルンバとラズベリーパイとレーザ距離センサによる自律移動ロボット Roomblock(3)

前回はルンバと通信するためのROIコネクタについて紹介しました.今回はルンバと通信するための計算機として用いている,ラズベリーパイ(Raspberry Pi)について書きます.

ラズベリーパイについては改めて言うまでもないかもしれませんが,低価格なARM搭載のボードコンピュータです.Roomblockで用いているのはラズベリーパイ2です.通常のPCと同じように,Ubuntuをインストールしたあと,ROSをインストールすることができます.

IMG_2457

Raspberry Pi 2

ルンバのROIコネクタとラズベリーパイは,USB-シリアル変換器を使って接続します.変換器を内蔵したケーブル秋月電子で購入できます)を使うと,ミニDINコネクタとはんだ付けするだけで写真のようなケーブルが出来上がります.Roomblockで唯一のはんだ付けが必要な部品ですが,3,4箇所をはんだ付けするだけなのでそれほど難しくないと思います.


IMG_2328IMG_1720 (1)
USB-シリアル変換ケーブル
「ラズベリーパイ自身がシリアルポートを持っているのではなかった?」と思った方,その通りです.工作の手間ができるだけ少なくなるようにUSB-シリアル変換器を使っていますが,おそらくラズパイの内蔵シリアルポートを配線しても動作すると思います.興味のある方は試してみてください.

ラズベリーパイの電源はどうしましょうか?ルンバのROIポートにも電源が出ているのですが,これはルンバのバッテリの電圧がそのまま出ているので,使う場合には電圧の変換が必要になってしまいます.Roomblockでは市販のUSBモバイルバッテリーを別電源として使用することにしました.10000mAのものが3000円程度で購入できる,良い時代になりました…これでラズベリーパイを数時間は動作させることができます.

IMG_1618

USBモバイルバッテリー

今回はここまでです.次はレーザースキャナについて紹介します.

Roomblockの詳細な作り方については,Instructablesで公開しています.ただし当社は,これらの内容によって生じるいかなる損害についても責任を負いません.興味がわいた方はあくまで自己責任で,チャレンジしてくださいね.

著者:Ryosuke Tajima

ルンバとラズベリーパイとレーザ距離センサによる自律移動ロボット Roomblock(2)

Roomblockに使えるルンバは,500, 600, 700, 800 シリーズと呼ばれるものです.これらの機種は,外部と通信するためのシリアルポートを備えています.ただし,現在の最上位機種のルンバ900シリーズは,画像による地図生成までできるすごいものですが,シリアルポートを備えていないのでRoomblockのベースとしては使用できないので注意してください.

ところでそのシリアルポートはルンバのどこにあるのでしょう?シリーズにより位置が異なります.500シリーズ,600シリーズは,上面のカバーを外さなければなりません.このカバーは4か所のツメで固定されていて,最初は少し硬いので外すのに力が必要です.ケガや破損に十分注意してください.


IMG_2455IMG_2453
Roomba 500シリーズのROIコネクタ
カバーを外すと,ミニDIN7ピンのコネクタが現われます.これがROI(Roomba Open Interface)コネクタと呼ばれるものです.

700シリーズ,800シリーズは,ルンバ上面の取っ手の下にROIコネクタがあります.カバーを外す必要はなく,取っ手を持ち上げるだけでアクセスできます.


IMG_2450IMG_2451
Roomba 700シリーズのROIコネクタ
以前は,このROIコネクタをPCと繋げるためのケーブルや,BluetoothWiFiで無線化するモジュールが販売されていましたが,,今は手に入らなくなっています.Roomblockでは,ルンバの上に搭載した計算機(ラズベリーパイ)をROIコネクタに接続しますが,これについては次回紹介します.

Roomblockの詳細な作り方については,Instructablesで公開しています.ただし当社は,これらの内容によって生じるいかなる損害についても責任を負いません.興味がわいた方はあくまで自己責任で,チャレンジしてくださいね.

著者:Ryosuke Tajima

Roomblock: ループを含む大きな建物での地図生成

名城大学構内で実験させていただいたデータから,ROSの地図生成パッケージで地図を生成してみました.データはROSのbagファイルとして取得したので,同じデータに対して異なる地図生成パッケージを適用することが可能です.

ROSの地図生成のパッケージとして,

  •  gmapping
  •  slam_karto
  • hector_slam
  • Google cartographer

の4つのパッケージを用います.

これまで家屋や廊下など,比較的狭い環境で地図を作ってきました.それらの環境ではどの地図生成パッケージも,(誤差はともかくとして),自律移動に使えないような大きく矛盾する地図を作成することはありませんでした.狭い部屋では,基本的にレーザセンサのデータをずっとつなぎ合わせ続けることで,部屋の地図を作ることが可能です.

しかし,今回のデータは非常に大きな建物の長方形の廊下を一周したものです.廊下を一周回って元の場所に戻ってきた時,それが元の場所であることを認識せず,そのままレーザセンサのデータをつなぎ合わせていくと,最初に作った地図と矛盾したものを上書きし続けてしまいます.これを避けるためには,現在居る場所が以前来たことのある場所であると認識した上で,地図全体を辻褄があうように生成しなければなりません.これは”loop closure”と呼ばれ,地図生成では非常に難しい問題です.

以下の動画は,4つのパッケージで地図を生成した結果をまとめたものです.地図のグリッドサイズは5cmとし,各パッケージのパラメータのほとんどはパッケージの規定値のままで,一部のパラメータのみ少し調整しました.

gmappingは非常に健闘しました.途中の廊下は真っ直ぐになっておらず,地図の形は後半にかけて不正確になっています.これはルンバのあまり正確でないオドメトリを少し信頼しすぎているようです.しかし,一周回ってきた最後に注目してください.以前来たことのある場所だと認識し,辻褄があうように地図全体を変形させました.矛盾のない,ほぼ正しい地図が出来上がりました.

slam_kartoは,今回はloop closureの検出に失敗してしまいました.一周回ってきた後,最初に作った地図を破壊しながら,新しい地図を上書きしていきます.矛盾した地図となってしまいました.

hector_mappingには,じつはloop closureの機能がありません.また,車輪の回転速度(オドメトリ)を使っていません.そのため,この環境ではうまく地図を作ることはできませんでした.

Google cartographerは最後発で,しかもこのような大規模環境の地図を作るために開発されたアルゴリズムです.やはりループを正しく閉じることに成功しました.


gmapping_mapkarto_maphector_mapcartographer_map

最終的に生成された地図(左から,gmapping, slam_karto, hector_slam, cartographer)

 

以上の結果は,どのパッケージやアルゴリズムが優れているか,どのパッケージを選ぶべきかということを示すものではないことに注意してください.今回,パラメータはほとんどチューニングしなかったので,それぞれのパッケージの最高の性能が出ているわけではありません.また,それぞれのアルゴリズムには得意不得意があるので,課題に対してどれが良いかは,実際に試してみないと分からないことが多いはずです.

現在のところROSはこのような様々な地図生成パッケージを比較検討できる唯一のプラットフォームです.オープンソースの利点を活かし,ぜひご自分の手で確かめてみることをお勧めします.

TORKでは,自律移動編を含むROS初級,中級のワークショップ,企業や大学でのプライベートワークショップのご依頼も承っております.お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

著者:Ryosuke Tajima

ルンバとラズベリーパイとレーザ距離センサによる自律移動ロボット Roomblock(1)

弊社のROS中級ワークショップ・自律移動編では,ルンバをベースとした自律移動ロボット”Roomblock”を教材として使用しています.不定期なエントリとして,このRoomblockの内容を紹介していきます.

まず,Roomblockは車輪移動台車として,iRobot社のお掃除ロボット,ルンバ(Roomba)を使用しています.驚かれる方もいるかもしれませんが,ルンバは実は通信用のシリアルポートを持っていて,パソコン等から操作したりセンサ情報を取得することが可能なのです.ルンバのこの機能は,発売当初から一部のエンジニアやホビイストの間で話題になり,ルンバを操作して楽しむ”Roomba Hacking”がブームとなったほどです.ROSが登場するよりもずっと前の話です.

IMG_1704

もう壊れてしまいましたが,2007年に私が初めて購入したRoombaです

iRobot社からは,”iRobot Create”という,掃除機能を省いた教育向けのルンバが発売されていたこともありました.ROSでも初期のTurtlebotプラットフォームは,このCreateをベースにしていました.現在はiRobot Createの販売は終了しており,TurtlebotもKobukiを用いたTurtlebot2, そしてRobotis社による独自プラットフォームTurtlebot3へと進化しています.

そんな中,なぜ今お掃除ロボット,ルンバを教材のベースとしたのでしょうか?3つ理由があります.

1つめは,ロボットの全体の価格をできるだけ抑えるためです.発売当初は割高に感じたルンバも,普及が進み今では3万円台から手に入るようになっています.屋内での自律移動に適したサイズ,車輪,センサなどを備えたロボットとしては破格です.

2つめは,ROSのパッケージがすでに存在していることです.それらを利用して,自律移動技術の本来的な目的である,地図生成や経路計画のソフトウェアの学習をすぐに始めることができます.

3つめは,ルンバが掃除をしてくれるからです…当たり前ですね.しかし,余暇にロボティクスを勉強したいエンジニアが,家族に「自律移動ができる10万円のロボットを買いたい」と言って納得してもらえるでしょうか?「ルンバなら掃除もしてくれるよ!」というとみんな喜んでくれます.

IMG_2278

最近では「ルンバ対応」のリビングチェアなるものまであります

おっと,つい話が長くなってしまいました.私ルンバが大好きなもので….今回はここまでです.

Roomblockの詳細な作り方については,Instructablesで公開しています.ただし当社は,これらの内容によって生じるいかなる損害についても責任を負いません.興味がわいた方はあくまで自己責任で,チャレンジしてくださいね.

著者:Ryosuke Tajima

名城大学にて自律移動ロボットのデモ&実験をさせていただきました

 
ROS初級と中級・自律移動編を受講頂いた名城大学メカトロニクス工学科様のご好意で,自律移動ロボット”Roomblock”のデモンストレーションをさせていただきました.

ものの数分で部屋の地図を作った後,障害物を避けながら自律的に移動するロボットに,学生さんたちも興味津々でした.

2017-06-28 12.32.23 navigation_stage_3
その後,名城大学の真新しくてモダンな構内で,ロボットを動かしてデータを取る機会をいただきました.大きな長方形の通路を一周し,これまでにない大きなループの経路のデータを取ることができました.果たして,RoomblockとROSの地図生成パッケージはちゃんと地図を作ることができたのか,後ほど報告したいと思います.

IMG_2401 IMG_2414
名城大学の目黒先生,学生の皆様方,ご協力どうもありがとうございました.

TORKでは,自律移動編を含むROS初級,中級のワークショップ,企業や大学でのプライベートワークショップのご依頼も承っております.お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

著者:Isaac Saito

NEXTAGE OPEN も登場:MoveIt! 5周年記念モンタージュビデオ

ROS の動作計画ライブラリ MoveIt! が,5周年を記念してアプリケーション例のビデオを公開しました.

MoveIt! チームがこのようなビデオを公開するのは4年前・2013年に次いで2度目ですが,ソフトウェア公開間もなかった当時と比べ,だいぶ Pick&Place,物を掴んで目的地に設置するというタスクが多く,技術の進展が窺えます.個人的には MoveIt! の課題領域としても挙げられている台車,水中ローバ等の移動体に取り付けられたアームの制御例が数件含まれ,既に実現されてるのかも気になります (このページの “Mobile base integration”).

また弊社がその opensource 版ソフトウェアのメンテナンスに積極的に関わり,サポートサービスも提供させて頂いているカワダロボティクス社製 NEXTAGE OPEN も登場します.弊社ブログ上でもお馴染み?の Spain のシステムインテグレータ・Tecnalia 社が手がける Airbus 向けアプリと思われます.

Hironx in motion from MoveIt! 5-year montage. Image courtesy of Tecnalia

Hironx in motion from MoveIt! 5-year montage by courtesy of Tecnalia

TORK では2013年の創業以来,ROS,MoveIt! のソフトウェア改良,普及に貢献し続けています.貴社ロボットへの MoveIt! の導入御検討であれば,弊社ワークショップで体験もできますので,参加を是非御検討下さい.

P.S. 今回のビデオの開発者一覧も公開されました.

(0:06) Delft Robotics and TU Delft Robotics Institute
(0:09) Techman Robot Inc.
(0:13) Correll Lab, CU Boulder
(0:37) Nuclear & Applied Robotics Group, Unv Texas
(0:50) Beta Robots
(0:55) GIRONA UNDERWATER VISION AND ROBOTICS
(1:03) Team VIGIR
(1:34) Honeybee Robotics
(1:49) ROBOTIS
(1:58) TECNALIA
(2:05) Correll Lab, CU Boulder
(2:26) TODO Driving under green blocks
(2:38) ROBOTIS
(2:54) Fetch Robotics
(3:05) Hochschule Ravensburg-Weingarten
(3:12) TU Darmstadt and Taurob GmbH – Team ARGONAUTS
(3:20) isys vision
(3:27) Technical Aspects of Multimodal System Group / Hamburg University
(3:33) Clearpath Robotics
(3:43) Shadow Robot

著者:Isaac Saito

MoveIt! 計画された軌道のビジュアライゼーション

2017年6月初のパッケージ更新により MoveIt! が更新され,これまで要望のあった軌道の目視確認機能が追加されました.
これまでは,生成させた経路を確認するには,RViz 上で “Loop Animation” をオンにして経路を反復再生させる手があったかと思います.この方法だと経路の途中の任意の経由点で止めることはできませんでした.
今回追加された機能を使うと,RViz 上でスライダを移動することにより,軌道の経由点を静止した状態で目視確認できます.

Introspect waypoints in a planned trajectory on MoveIt! on NEXTAGE Open.

As you see on the slider on the left side, you can now introspect each waypoint in a planned trajectory on MoveIt! on NEXTAGE Open.

本機能を有効にする方法はチュートリアルを参照下さい.

著者:Ryosuke Tajima

ROS Intermidiate (Navigation) Workshop in Nagoya 名古屋にてROSワークショップ中級・自律移動編を開催しました

We had the intermidiate ROS workshop on navigation at Meijo University, Nagoya, Aichi. They learned the navigation features of ROS using simulation and a real robot named “Roomblock”, Roomba based robot. Mapping, localization, control are

Thanks everyone, and well done!!


前回の初級編に続き,名古屋市の名城大学メカトロニクス工学科で,プライベートROSワークショップ中級・自律移動編を開催しました.この自律移動編は今年度から新しく始まったもので,初めての開催となります.

中級・自律移動編では,まずシミュレータを用いた自律移動技術のハンズオンを行います.つぎに,iRobot社の掃除ロボット,ルンバをベースにした自律移動ロボット”Roomblock”を用いて実際に地図生成と自律移動を行います.”Roomblock”はラズベリーパイとLIDAR(レーザ距離スキャナ)を備えた立派な自律移動ロボットで,部屋の地図を作り,目的地を設定してそこに移動することができます.最後に,ROSの自律移動機能の解説(全体の構成,関連するtopic, move_baseの仕組みなど)を受け,ハンズオンで出てくる疑問点を解消していきます.

車輪移動ロボットの操作方法,地図の生成,自律移動を実際にやってみることで,自律移動技術の理解がより深まるものと思います.参加者の皆様方,お疲れ様でした.今後の研究開発の一助となれば幸いです.

このように,TORKでは企業や大学でのプライベートワークショップのご依頼も承っております.また,本年からは中部地区での開催を増やしていこうと考えています.お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

IMG_2340

IMG_2346

IMG_2347

著者:Ryosuke Tajima

ROS Basic Workshop in Nagoya. 名古屋にてROSワークショップ初級編を開催しました

We had ROS Workshop at Meijo University, Nagoya, Aichi. They run through the basic of ROS, such as sensing, actuating and connecting them together. Many questions and answers was made, for comprehensive understanding to use ROS.

Great work, everyone!!

名古屋市の名城大学メカトロニクス工学科で,プライベートROSワークショップ初級編を開催しました.

初級編では環境の構築からセンシングデバイス(LeapMotion),ラジコンサーボ(Dynamixel)をROSで動かすところまでを半日で行いました.その中で出てくる疑問点(たとえばROSの概念的な部分から具体的な操作など)にもお答えいたしました.

これからバリバリ研究して行こうという学生のみなさんに,まずはROSを効率よく使っていくお手伝いができたのではないかと思います.

ROSを初めて勉強する人へのブログも公開しています. 合わせてご参考になさってください.

このように,TORKでは企業や大学でのプライベートワークショップのご依頼も承っております.また,本年からは中部地区での開催を増やしていこうと考えています.お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp


IMG_2313

IMG_2308

著者:Yumiko Suzuki

ROS Workshop for Beginners on 14th June ROSワークショップ初級編を開催しました

We had ROS Workshop at Yurakucho, Tokyo.
We used custom ROS-preinstalled LiveUSB, so people had ROS experience without change your PC environment.
All of attendee ran through the all topics.

Great work, everyone!!



今回も有楽町の会議室にてROSワークショップ初級編を開催しました.
参加者の方が開発中のシステムの質問もお受けしました.皆様お疲れ様でした!

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,社内で運用していく際の疑問点等にも随時お答えしています.

7-8月のワークショップ日程を公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップ,その他OSSに関するご相談も承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

著者:Isaac Saito

(図面付き) NEXTAGE OPEN の頭部カメラのキャリブレーションHead-mount stereo camera calibration for NEXTAGE OPEN


NEXTAGE OPEN で頭部ステレオカメラを利用する際の,カメラの姿勢を手軽にキャリブレーションする方法を公開しました

ROS では幾つかカメラを用いたキャリブレーション用パッケージが利用できます.ROS 初期の代表的ロボット PR2 向けに作られた calibration,産業用ロボット向けに豊富な機能を持つ industrial_extrinsic_cal,最近ではキャリブレーション結果を用いてロボットのキネマティクス情報を更新してくれる robot_calibration というのもあります.いづれもハードウェア and/or ソフトウェアの前準備が大変だったり,高機能ゆえに計算に時間がかかったりと,扱いに慣れが必要です.

今回ご紹介する方法は基本的にチェッカーボードをロボットに固定さえすれば実施可能です.詳しい方法を ROS wiki に記載しています.ステレオカメラで胸部あるいは腰部に固定したチェッカーボードを認識することにより,頭部カメラのロボット上の相対姿勢を取得します.カメラの据付位置座標が分かれば,Gazebo シミュレータ上でもキャリブレーションを行い相対姿勢を取得することが可能です.


胸部に付けたチェッカーボードを認識中


ロボットに固定したチェッカーボードを認識することで,ROS の座標変換ライブラリ “tf” により,カメラの正確な相対姿勢が判明します.


Gazebo 上の Kinect でチェッカーボードを認識している様子.

なお,キャリブレーションに用いたチェッカーボードの NEXTAGE OPEN 本体への取付けに必要な部品一式の図面もGitHub 上で公開しています.また,TORK では Xtion をかっこ良く頭部に取り付けたい場合 外装を御用意しています (日本国内のみ).

現状では上記 wiki ページで紹介されている方法は Kinect 或いは Xtion を利用しています.NEXTAGE OPEN がデフォルトで搭載する頭部の Ueye カメラ二基を用いても同じ方法は有効のはずですが,Ueye 個別の操作方法は未だ記載していません.ROS wiki は誰でも編集できるので,もし Ueye でキャリブレーションに成功した方がいたら是非情報を追記頂けると,全世界の NEXTAGE OPEN ユーザが喜ぶと思います!


Recently we’ve updated the instruction for the NEXTAGE OPEN’s calibration using head-mount stereo cameras.

There has been mutilple camera/robot calibration packages in ROS; calibration package worked well for the PR2 robot, a high-functional reference model of ROS in the early era until very recently. Then for industrial usage industrial_extrinsic_cal was developed with abundant functionalities to cope with complexed needs. Relatively newer robot_calibration package, which is maintained by the warehouse robot manufacturer Fetch, even updates the robot’s kinematics parameters using the calibration result. Almost all of these practical features come with a cost of labor in hardware and/or software, however.

The approach we’re presenting is simple enough since all you need is a checkerboard — not even a board but a plain or even a piece of paper will do as long as checker matrix is printed on it. Detailed steps are available on ROS wiki. Basically get the pose of the camera mounted on top of the head or actually anywhere on the robot, by recognizing the checkerboard. You can also carry out the calibration on Gazebo simulation as long as you know the location to attach the camera so that you can spawn the camera’s 3D model in the virtual world.


Detecting a checkboard at the chest.


Recognizing the checker pattern, which is in a fixed pose w.r.t the robot, yields the camera’s relative pose w.r.t the robot as a result of “tf” computation.


Seeing checkerboard through a simulated Kinect on Gazebo.

We’ve also made the design of the checkerboard kit publicly available on NEXTAGE OPEN’s GitHub repository so that any handyperson can go through these steps.

As of now the instruction in the wiki above only uses Kinect or Xtion, i.e. the operation of the Ueye cameras that NEXTAGE OPEN comes with by default is a bit different but that’s not documented yet, although the calibration part is intended for any ROS-based stereo camera so it should work for Ueye too. Every one is welcomed to edit ROS wiki to add your findings in this regard. Power of opensource!

著者:Yumiko Suzuki

ROS Workshop for Beginners on 22th March ROSワークショップ初級編を開催しました

We had ROS Workshop at Hongo, Tokyo.
We used custom ROS-preinstalled LiveUSB, so people had ROS experience without change your PC environment.
All of attendee ran through the all topics.

Great work, everyone!!



本日も本郷のミーティングスペースにてROSワークショップ初級編を開催しました.
ご自分のPCでUubuntu環境が準備できなくても,LiveUSB等でワークショップを体験できます.
一つ一つのタスクに対して積極的な質問をいただきながら最後まで完遂しました.お疲れ様でした!

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,社内で運用していく際の疑問点等にも随時お答えしています.

4-6月のワークショップ開催日程も公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップも承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp


IMG_20170322_172936

著者:Yumiko Suzuki

ROS Workshop Schedule, from February to March 20172017年2月-3月のROSワークショップ日程


Here are the schedule of our ROS workshop series during the first three months of 2017!

Feb. 22 Wed 13:30- Introductory
Mar. 02 Thu 13:30- Introductory
Mar. 16 Thu 13:30- Introductory
Mar. 22 Wed 13:30- Introductory
Mar. 29 Wed 13:30- Introductory

Venue: Hongo, Tokyo

Inquiries: info[at]opensource-robotics.tokyo.jp



以下日程でROSワークショップを行います.

2月22日(水)13:30~ ROSワークショップ初級編
3月02日(木)13:30~ ROSワークショップ初級編
3月16日(木)13:30~ ROSワークショップ初級編
3月22日(水)13:30~ ROSワークショップ初級編
3月29日(水)13:30~ ROSワークショップ初級編

場所は都内・本郷のミーティングスペースでの実施を予定しています.
中級編についてはご要望があり次第,日程を調整いたしますのでメイルにてお問い合わせください.
(初級編を受講した方を対象としております.中級マニピュレーション編のページをご参照ください)

お申込みは以下より詳細をご確認の上,ページ内のお申込みリンクよりエントリをお願い致します.

ROSワークショップ初級編

日程の調整,その他ご相談,開発委託,出張ワークショップ,カスタマイズワークショップも承っております.お気軽にご相談ください.
info[at]opensource-robotics.tokyo.jp

IMG_20151112_182120

著者:Yumiko Suzuki

ROS Workshop for Intermediate Manipulation on 31th January プライベートROSワークショップ中級・マニピュレーション編を開催しました


We had ROS Workshop for Intermediate Manipulation at Nagoya, Japan.

The participants also joined our Beginners Workshop a few weeks ago, then re-setup own PC and review all contents.

Thanks you for joining us!!


今回は企業様の会議室をお借りして,プライベートROSワークショップ中級・マニピュレーション編を開催しました.

長時間の講習お疲れ様でした.ご依頼いただきありがとうございました.

2017年4-6月の初級編のスケジュールを公開しています.

プライベートワークショップ,出張ワークショップ,カスタマイズワークショップ,その他ご相談も承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

IMG_20151118_175839

著者:Isaac Saito

2017 MoveIt! 新機能その2;動作の停止.求ム実機テスター!2017 MoveIt! update pt.2; Stopping motion on NEXTAGE needs your help


MoveIt! の年初一発目の更新については前回機能を一つ,NEXTAGE Open を利用してお伝えしました.今日ご紹介する動作計画の停止機能は,弊社でも要望を何度もユーザ様から伺っていた機能です.

平たく言えば,ロボットが任意の動作を実行している最中に,途中で停止する機能です.動作を停止したい状況は安全に関わるケース以外でもいろいろ考えられるため,非常停止装置などを用いて危険回避目的でロボットの全動作を停めるのではなく,プログラミングのレベルで特定の動作だけを停止ができるとアプリケーション開発上嬉しいことがあります.MoveIt! ではこの停止する標準的な方法がなかったのですが,今回追加されました (ちなみに本機能の作成は GSoC で日本人の修士学生が主導した模様).

早速 Pepper のシミュレーションで使ってみました.


In the previous post we introduced one of the many new features that were added to MoveIt! with its first update in 2017. Next feature we want to mention is the “stop motion”, which we’ve received many questions from our NEXTAGE users about.

Other than situations where you need to stop robots to move for the safety reasons, there can be many cases you want to stop/cancel/halt your robot for your application. The standard way to achieve this in MoveIt! had been lacking, which is finally organized this time (lead by a student at GSoC project by the way).

It works well with Pepper robot on simulation. You see the arm stops as soon as the “stop” button on RViz was clicked.



RViz 画面上に新たに追加された “Stop” ボタンを押すと,腕の動作が止まっているのがわかりますでしょうか.

この便利機能なのですが,弊社がサポートする NEXTAGE Open のオープンソースソフトウェアではまだ動作しません.修正パッチが作成され,シミュレーション上では期待通り動作することが確認されましたが,ロボット実機の挙動への影響があり得るため,実機テストが必要となっています.NEXTAGE Open をお持ちの方々で,もしテストに協力しても良いという方がいらっしゃれば,info[a_t]opensource-robotics.tokyo.jp 宛に連絡頂くか,Github 上の当該の問題のチケットに書き込みいただければ,ご支援させて頂きます.


This nice feature, however, does not YET work with the NEXTAGE Open. Don’t worry much, there’s a work going on already and we confirmed a patch submitted from a community member solves the issue on simulation! We just need to test the patch on the real NEXTAGE Open robot, and this is where we need a help from the robot owners. If you think you can help us testing with your own robot, please contact TORK at info[a_t]opensource-robotics.tokyo.jp or joint the discussion at the ticket for this issue on Github so that we’ll communicate with you. Thank you for your understanding toward opensource!

著者:Isaac Saito

First MoveIt! Update in 2017. Using it on NEXTAGE pt.12017年始早々 MoveIt! 新バージョンがリリース.NEXTAGE で使ってみる その1

MoveIt! の最新バージョンが公開になりました.昨2016年にメンテナンスチームがリニューアルして以降,MoveIt! の開発が活発になり,それまで溜まっていた問題報告やパッチ候補の処理が加速しました.今日現在利用可能な ROS の3つの異なるディストリビューションそれぞれに最新版がリリースされています (Indigo 0.7.6, Jade 0.8.3, Kinetic 0.9.3).今回のリリースではバグ修正に加え,ユーザの要望の高かった機能も幾つも追加されています.その内の一つの機能をカワダロボティクス社の NEXTAGE Open のシミュレータを用いて見てみます.

1.軌道実行時の際の速度・加速度をの動的に変更

MoveIt! の RViz プラグイン上に新たな機能が追加されました.スピンボックス上の値を 0-1 の間で変更することでロボットアームの軌道実行の速度,加速度を変更できます.
御自身のロボットの3次元モデルファイル (URDF 或いは SRDF) 内に指定している関節速度/加速度を0-1の間でスケールすることができるようになっています.


New version of MoveIt! binary 0.7.6 is just released for ROS Indigo, first time in 2017 (for sure!) and first release since June 2016. This version comes with some long-wanted features (along with bug fixes of course) that we’re trying out using NEXTAGE simulator.

1. Changing trajectory velocity and acceleration during runtime

Changing the speed of the trajectory during runtime has been one of FAQs from NEXTAGE users who use MoveIt!, let alone many MoveIt! users on the globe. Now through MoveIt! RViz plugin you can conveniently configure that on the fly on the spinboxes added.

moveit-rviz_vel-accel_nxo_2

RViz 上でなくプログラマティックに変更したい場合は MotionPlanRequest トピックの値を変更することで runtime/プログラム実行中に変更できます.

次回に続く.


To configure that programmatically, see this tutorial that explains chainging MotionPlanRequest topic would do the work.

TORK is very actively contributing the development and maintenance of MoveIt!.

著者:Yumiko Suzuki

【2016年プレゼント企画】Opensourceに貢献しましょう!

皆様,2016年お世話になりました.また,特にロボティクス関連のオープソースへご協力頂いた皆様,ありがとうございました.
皆様のご貢献への感謝として,ささやかではありますが以下の写真にあるROS初級編資料やROS対応LiveUSBをプレゼントする企画を実施します.

2016年中に皆様自身が行った,

  • ROS JAPAN Users GroupのMLへの投稿やanswers.ros.orgへの質問/回答
  • roswikiへの情報追加・修正
  • githubでのソフトウェア公開

など,オープンソースへの貢献についてリンクを頂いた皆様に,何らかのプレゼントを送付させていただく予定です.是非ご応募下さい.また,質問等されていない方は,ぜひ今からでも間に合いますので,ML等へのご質問をしていただければと思います.

まだオープンソースに貢献できていないけれどどうしても今プレゼントがほしい方も,アンケートにお答えいただければ数がある限り対応いたします.是非アンケートに回答して応募してみてください!
プレゼントは要らないけれどアンケートに答えたい方も大歓迎です!

締め切りは2017年1月10日(火)です.
ご応募お待ちしております!
応募アンケートリンク

※応募多数の場合は抽選になります.ご容赦くださいませ.

弊社の情報発信はこのblogとFacebook,twitterアカウントがあります.
FBにいいね!やtwitter投稿のリツイートもお待ちしております!

2017年もオープンソースコミュニティを盛り上げて行きましょう!
IMG_5633

著者:Isaac Saito

TORK to co-host Toyota HSR workshop for usersトヨタ HSR ユーザ向けセミナを行いました


トヨタ自動車株式会社 (以降トヨタ) 様 の生活支援ロボット “HSR”のユーザ様向け技術者セミナを,全国4箇所にて開催しました.

TORK はこれまでにも2014年の第1回昨・2015年の第2回のハッカソン開催へのご支援を中心に HSR 開発に御協力をさせて頂いてきました.昨年までは HSR を所有するユーザが未だあまり居ない中での開催でしたが,HSR 開発者コミュニティが昨年発足し,HSR を所有する組織が拡大したのを受け,今回はそれら所有者で形成されるコミュニティのメンバー向けでした.

HSR の扱い方や ROS を用いたプログラミングといった技術的内容に加え今回は,トヨタ様の意向もあり,開発者コミュニティの積極的な利用に重きを置きました.
ユーザがネット上でグループを形成し議論する”コミュニティ”は,ROS をはじめ多くのソフトウェアのプロジェクトが汎く普及するにあたってその整備が欠かせないと言われています.HSR 用の開発コミュニティはトヨタ様が直接運営し,メンバ間での情報共有や議論に必要なツールが提供された本格的なものです.コミュニティをうまく利用することにより,御自身の開発を加速できると共に,開発者コミュニティ自体が成長し,それによって御自身の開発に更にメリットが還ってくる,という良い循環が生まれます.そうして一組織だけでなく,HSR 開発者コミュニティ全体で成果を共有し発展していくのが狙いです.


TORK has been partnering with the “HSR” welfare robot’s dev team at Toyota Motors Corporation (TMC). In 2014 and the last year 2015 we worked together with them for the hackathon.

This year we worked with TMC again to host developers workshop at 4 venues in Japan. In addition to going over the robot’s unique features and programming using ROS, we particularly focused on utilizing the online community designated for HSR owners, which TMC initiated in 2015 and maintains by themselves (membership-only as of today). Goal is that participants get hands on experience in interacting on the developers community so that they can accelerate their own development, which also contributes to develop the community size and maturity, which the developers ultimately appreciate. That said the seminar series this time is the beginning of building the communiy’s life cycle as TMC’s dev team intended.

CIMG3657 CIMG3749 tokyo20_crop S2060008 IMG_20161108_112241 IMG_20161108_111225 DSC_0312 DSC_0302

本セミナ期間中は,プログラムを実行しても動かないだとか,実装の方法が分からないといった問題に当たったら,問題解決を自分だけで行うのではなく,コミュニティに質問し意見を伺いながら進めるよう提案しました.質問文を作成すること自体慣れないと時間が取られますし,技術者として他人に質問するのも,研究室ごとの質問に関する文化もあってか,勇気がいることでしょう.最初は中々質問が出ないこともありましたが,トヨタ様はじめ積極的な回答者の適切な回答のおかげもあり,質問するメリットを感じて頂けたかと思います.何より,セミナ実施後は実施前に比べ開発者コミュニティでの情報の流通量が大きく増えました.

またセミナ中,HSR に依存しない問題 (ROS 一般に言える問題等) についてはそれぞれのコミュニティを利用することをお伝えし,コミュニティ例として ROS 日本語ユーザグループ “ros-japan-users” を紹介し,セミナ中に何度か試しに投稿して頂きました.その効果なのかどうか分かりませんが,セミナ開始した2016年10月以降の同グループの投稿数が下図のように一気に増えました.もし本セミナの参加者様が質問することに抵抗が減ったのであったり,セミナ無関係の方でも投稿が増えたのを見て質問する心理的障壁が少しでも下がった結果であったりするなら幸いです.


Also discussed is problem isolation – engineers often need to figure out the types of problems and post questions at the best community per incident. This is more an advanced subject, but participants well exceeded our expectation to separately post HSR-specific questions and generic-ROS questions on the forums of each. This may have resulted in the positive spike of the number of posts at the ROS Japanese user groups as you see in the graph below (workshop series started in October).

graph_num-newPost_ros-japan-users_2016


最後に幾つか,各セミナ回の最後に行ったコーディングチャレンジの動画をご紹介して終わります.HSR・ロボットコミュニティの益々の発展に微力ながら貢献できていれば何よりです.


Closing this blog post with some videos from the code challenge at the end of the workshops. We truly hope that we’ve contributed to the HSR and the world of robotics community by encouraging community involvement.






著者:Kei Okada

How to Ask Question質問の仕方


メール,掲示板での質問の仕方のTipsです.初心者の方は何を質問しても,「それだけだと分からない.もっと情報をください」と言われることが多いかと思います.どのように質問したらいいか?一番の目安は「困っている人のトラブルを再現できるかどうか」です.以下に例を見てみましょう.

もし,他の人も使っている汎用のプログラムだったら,

  $ rviz
  と打ち込み,rvizを実行しました

または,

  $ roslaunch urdf_tutorial xacrodisplay.launch model:=`rospack find pr2_description`/robots/pr2.urdf.xacro
  と打ち込みました.

など,相手も同じ問題を再現する方法が質問に含まれているか確認しましょう.

もし,自分しか使っていないプログラムの場合は,そのプログラム一式を圧縮ファイルにして質問に添付するのが簡単です.圧縮ファイルの作り方は,catkinワークスペースで

  $ tar -cvzf my_package.tgz ./src

としましょう.これで生成されたmy_package.tgzを添付すればOKです.

また,添付ファイルを使えないようなメール,掲示板の場合は,ソースコード一式をGitHubにアップロードする方法もよく使われます.GitHubが初めての場合は,http://qiita.com/dev-neko/items/28ac253ea295ad6c2b73 などが参考になるでしょう.

もし,開発しているソースコードに秘密情報が入っておりアップロードすることが困難な場合は,秘密情報を抜いて一般的な問題として再定義し,そのプログラムを作ってアップロードするとと良いかと思います.また,私達のようなROS専門のコンサルタント業者にお問い合わせいただくことも可能です.

また,困っている人と同じ状況を再現するまでもなく,プログラムの出力ログを見ると原因がわかる場合も有ります.プログラムの出力ログを貼り付ける時は,自分でここは重要な箇所ではない等と判断せずに,プログラムの全ての出力を添付するのが重要です.

ROSプログラムのログの取得方法はいくつか有ります.
roslaunchを使ってプログラムを立ち上げた場合,以下のようにlogging to..というメッセージが紹介されます.

  $ roslaunch urdf_tutorial xacrodisplay.launch model:=`rospack find pr2_description`/robots/pr2.urdf.xacro
  ... logging to /home/tork-a/.ros/log/abfd7cb2-b476-11e6-907c-e4a7a00bd84e/roslaunch-ubuntu-14449.log

このとき,/home/tork-a/.ros/log/abfd7cb2-b476-11e6-907c-e4a7a00bd84e/ にあるファイルを全て提出すれば,質問された人も何が起こっているか理解することができます.
また,最新のログファイルは常に~/.los/log/latest/ から参照できるようになっています.
上記の様にtarコマンドで圧縮ファイルを生成してもよいですし,最近はテキストファイルのアップロード場所として gist.github.com もよく利用されます.
gist が初めての場合は http://tyoshikawa1106.hatenablog.com/entry/2013/04/10/000026 などが参考になるでしょう.

他には

  $ rviz 2&>1 > rviz.log

として標準出力とエラー出力の両方をリダイレクトしてファイルに書き出す方法もよく利用されます.この場合,全ての出力がファイルに書きだされ画面では見ることができないですね.teeコマンドを使うと入力を標準出力に書き出しながらファイルにも書き出します.

  $ unbuffer rviz 2&>1 | tee rviz.log

unbufferを付けないと,rvizの出力がバッファされてなかなか表示されません.unbufferがインストールされていない場合は,`sudo apt-get install expect-dev` として下さい.

roslaunchはデフォルトでは各ノードの出力を標準出力には表示しません.表示したい場合は,

  $ roslaunch --screen urdf_tutorial xacrodisplay.launch model:=`rospack find pr2_description`/robots/pr2.urdf.xacro

と,screenオプションをつけると良いでしょう.ログファイルを作るのは

  $ roslaunch --screen urdf_tutorial xacrodisplay.launch model:=`rospack find pr2_description`/robots/pr2.urdf.xacro 2>&1 urdf.log

または,

  $ unbuffer roslaunch --screen urdf_tutorial xacrodisplay.launch model:=`rospack find pr2_description`/robots/pr2.urdf.xacro 2>&1 | tee urdf.log

ですね.

大量の添付ファイルや情報を添付することに躊躇する方も多いかもしれませんが,それらの情報がなければ問題を解決できないので嫌がれることはありません.

質問する際には,相手が自分と同じ問題を再現できるか,あるいは再現しなくても状況が理解できるような十分なログを提供しているかをぜひ再確認して,質問には十分すぎる情報を添付してみましょう.


Today, we’ll show some tips on how to ask question on mailing list or message board. If you are beginner and asked question, sometimes you’re required to provide more information. So most of cases, we believe people have trouble because they do know to know how to ask question. One criteria is “Do you provide enough information that others can RE-PRODUCE your problem”. Let’s see some examples.

If you’re using general program, which someone may using. Information such as

  I executed rviz program by
  $ rviz

Or,

  I typed as follows
  $ roslaunch urdf_tutorial xacrodisplay.launch model:=`rospack find pr2_description`/robots/pr2.urdf.xacro

enable others reproduce your situation.

If you’re using a program that no other people is using, you can create compressed files as running following command at catkin workspace and attach your question e-mails.

  $ tar -cvzf my_package.tgz ./src

If you’re asking to the mailing list or board which can not use attached file, a common way is to upload a entire source code to GitHub, if you are not familiar with GitHub, http://qiita.com/dev-neko/items/28ac253ea295ad6c2b73 may help.

If your code contains non-disclosed information and does not allow to upload on public place, you can re-define the problem without private information and upload that pgram. Or, you may ask for professional consultants as us.

Sometimes, the problem can be solved by looking at output log of the program, without re-produce the situation. In this case, it is very important not to edit your self by judging this part is important and this part is not, but to put entire log information.

To get output log of ROS program has several ways.

If you started your programs with roslaunch, you can find `logging to..` message as follows

  $ roslaunch urdf_tutorial xacrodisplay.launch model:=`rospack find pr2_description`/robots/pr2.urdf.xacro
  ... logging to /home/tork-a/.ros/log/abfd7cb2-b476-11e6-907c-e4a7a00bd84e/roslaunch-ubuntu-14449.log

Then, if you provide all files under /home/tork-a/.ros/log/abfd7cb2-b476-11e6-907c-e4a7a00bd84e/ directory, people who questions also understand what exactly going one. You may find latest logfile from ~/.los/log/latest/
You may use tar command as we described earlier or gist.github.com is widely used recent days as a public textfile upload service.
If you haven’t used gist, you can refer http://tyoshikawa1106.hatenablog.com/entry/2013/04/10/000026

Other way is to run command like

  $ rviz 2&>1 > rviz.log

to output both standard output and error to files. In this command all information is redirected to the file and no message appeared to the file. tee command will split input information into both standard output and file

  $ unbuffer rviz 2&>1 | tee rviz.log

without unbuffer command, rviz output is buffered and there is delay in the message. If you do not have unbuffer command, try`sudo apt-get install expect-dev`.

sometimes roslaunch do not outputs standard output information of each node, to enable this,use –screen option as follows.

  $ roslaunch --screen urdf_tutorial xacrodisplay.launch model:=`rospack find pr2_description`/robots/pr2.urdf.xacro

To create log file, you can use

  $ roslaunch --screen urdf_tutorial xacrodisplay.launch model:=`rospack find pr2_description`/robots/pr2.urdf.xacro 2>&1 urdf.log

or

  $ unbuffer roslaunch --screen urdf_tutorial xacrodisplay.launch model:=`rospack find pr2_description`/robots/pr2.urdf.xacro 2>&1 | tee urdf.log

Sometimes people hesitate to attach large text files or information, but without that information, we can not solve your problem. So everyone need huge information.

Whenever you ask someting, please keep in your mind that “Does other people can reproduce your program?” “Did you provide enough information that equivalent to reproduce your program” and attach enough information with your question.

著者:Yumiko Suzuki

ROS Workshop Schedule, from October to December 20162016年10月-12月のROSワークショップ日程


Here are the schedule of our ROS workshop series during the last three months of 2016!

Oct. 27 Thu 13:30- Introductory
Nov. 02 Wed 13:30- Introductory
Nov. 22 Tue 13:30- Introductory
Dec. 01 Thu 13:30- Introductory
Dec. 06 Tue 13:30- Introductory
Dec. 09 Fri 13:30- Introductory
Dec. 21 Wed 13:30- Introductory

Venue: Hongo, Tokyo

Inquiries: info[at]opensource-robotics.tokyo.jp



以下日程でROSワークショップを行います.

10月27日(木)13:30~ ROSワークショップ初級編
11月02日(水)13:30~ ROSワークショップ初級編
11月22日(火)13:30~ ROSワークショップ初級編
12月01日(木)13:30~ ROSワークショップ初級編
12月06日(火)13:30~ ROSワークショップ初級編
12月09日(金)13:30~ ROSワークショップ初級編
12月21日(水)13:30~ ROSワークショップ初級編

場所は都内・本郷のミーティングスペースでの実施を予定しています.
中級編についてはご要望があり次第,日程を調整いたしますのでメイルにてお問い合わせください.

お申込みは以下より詳細をご確認の上,ページ内のお申込みリンクよりエントリをお願い致します.

ROSワークショップ初級編

日程の調整,その他ご相談,企業内ワークショップ,カスタマイズワークショップも承っております.お気軽にご相談ください.
info[at]opensource-robotics.tokyo.jp

IMG_20151112_182120

著者:Isaac Saito

catkin-tools – our OSS contribution pt.2 catkin-tools 便利機能に貢献しました その二


Following our previous post about a nice hidden tip for catkin-tools, here’s another one.

When finishes compilation, `catkin build` shows a pop-up window at the top-right on your screen (if you’re on Ubuntu Linux), which indicates `Build Finished` or `Build Failed`. This is nice in that you can work on another windows without payting attention to catkin’s progress. Caveat is, though, that “Finished” and “Failed” aren’t that obviously differentiating whatsoever.

With the newer version of catkin-tools, 0.4.3 or higher, the window pops up with a distinguishable colors; Green for success and red for failure.

This little but significantly effective change is done by our TORK associates again. The change was made swiftly and neatly as it has always been in the opensource software community.


先日ROS の非公式ビルド/コンパイルツールである catkin-tools について便利な技を紹介しましたが,今日ももうひとつ便利機能を紹介します.

`catkin build` を実行してコンパイルしたあと,ディスプレイの右上に `Build Finished` または `Build Failed` というポップアップウィンドウが表示されますね.これで,catkin-tools を実行しているターミナルで以外のウィンドウで作業していても,コンパイルが終わったことを瞬時に知ることができます.でも,これ,英語に慣れていないと,Finished (終了,正常) なのか Failed (失敗) なのかを瞬時に把握するのが難しいですよね.いや,英語に慣れていても紛らわしいですかね.

そこで catkin-tools のバージョン 0.4.3 からは,成功していたら緑色,失敗していたら赤色のアイコンが表示されるように改善されました.

ちなみにこれも TORK 関係者のプルリクエスト (変更案の提供) によるものでした.こういう小さい改良を根気よく皆で続けることがオープンソースの強みですね.

UPDATE 1/6/2017 catkin_tools 0.4.3 がやっとリリースされ,ここで取り上げている機能が使えるようになりました.記事先行してしまいお待たせしていたら失礼しました.

catkintools_failure

catkintools_success

著者:Yumiko Suzuki

ROS Workshop for Beginners on 13th September ROSワークショップ初級編を開催しました

We had ROS Workshop at Hongo, Tokyo.
One participant prepared own Ubuntu PC and installed indigo, the other used our LiveUSB.

You can experience ROS workshop by the LiveUSB without installation of Ubuntu on your machine.

Thanks you for joining us!!



今回も本郷のオープンスペースにてROSワークショップ初級編を開催しました.
ご自分のPCでUubuntu環境が準備できなくても,LiveUSB等でワークショップを体験できます.

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
実施時間中にROSに関するお困りごとだけでなく,オープンソースを社内で運用していく際の疑問点等にも随時お答えしています.

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

出張セミナー,カスタマイズワークショップ,個別コンサルティング,プライベートワークショップも承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

IMG_20160913_162032 IMG_20160913_162027

著者:Isaac Saito

catkin-tools tipcatkin-tools 隠れ便利機能その一

ROS ではコンパイルを行う catkin_make という独自ツールが用意されています.CMake というソフト開発でとてもよく使われるコンパイルようツールを拡張したもので,沢山のソフトウェアパッケージを一気にコンパイルする必要も往々にして発生するロボティクスにおいて便利なツールです.一方で,遅い!だとか,コンパイル実行の度にいちいちフォルダ移動めんどい!等課題も多く指摘されており,非公式ではありますが改良版の catkin-tools というのがあります.先に述べたような根本的な問題から,痒い所に手が届く的なウレシイ機能までよく出来たツールで,人気を集めています.

使い方等は上記リンクを辿っていただくことにして,今日はまったく知られていないもののなかなか便利な機能を紹介します.

catkin_make あるいは (catkin-tools だと) catkin build を実行しコンパイルした後に,コンパイル成功したソフトの情報をターミナルに読み込ませるために次のようなコマンドを実行することになっているかとおもいます.

    source ~/catkin_ws/devel/setup.bash

コンピュータ上の path を意識させないのが ROS なので,上のコマンドには違和感を感じ続けてきた方も居たのでしょうか.catkin-tools はやってくれました.まず

    source `catkin locate --shell-verbs`

とすると,catkin source というコマンドがつかえるようになります (back quote に注意).このコマンドは絶対 path を意識せずに環境情報の読み込みが可能にします.例えば,

cd ~/catkin_ws/src/ros_seminar
catkin source

と実行すると,上記の絶対 path コマンドと同じことをしたことになります.どのディレクトリにいても大丈夫なので,例えば次のどれでも結果は同じになります.

 cd ~/catkin_ws/src/ros_seminar
 cd ~/catkin_ws/src/ros_seminar/rosseminar_hironx
 cd ~/catkin_ws/src/

便利ですね!ROS ではコンパイルを行う catkin_make という独自ツールが用意されています.CMake というソフト開発でとてもよく使われるコンパイルようツールを拡張したもので,沢山のソフトウェアパッケージを一気にコンパイルする必要も往々にして発生するロボティクスにおいて便利なツールです.一方で,遅い!だとか,コンパイル実行の度にいちいちフォルダ移動めんどい!等課題も多く指摘されており,非公式ではありますが改良版の catkin-tools というのがあります.先に述べたような根本的な問題から,痒い所に手が届く的なウレシイ機能までよく出来たツールで,人気を集めています.

使い方等は上記リンクを辿っていただくことにして,今日はまったく知られていないもののなかなか便利な機能を紹介します.

catkin_make あるいは (catkin-tools だと) catkin build を実行しコンパイルした後に,コンパイル成功したソフトの情報をターミナルに読み込ませるために次のようなコマンドを実行することになっているかとおもいます.

source ~/catkin_ws/devel/setup.bash

コンピュータ上の path を意識させないのが ROS なので,上のコマンドには違和感を感じ続けてきた方も居たのでしょうか.catkin-tools はやってくれました.まず

source `catkin locate --shell-verbs`

とすると,catkin source というコマンドがつかえるようになります.このコマンドは絶対 path を意識せずに環境情報の読み込みが可能にします.例えば,

cd ~/catkin_ws/src/ros_seminar
catkin source

と実行すると,上記の絶対 path コマンドと同じことをしたことになります.どのディレクトリにいても大丈夫なので,例えば次のどれでも結果は同じになります.

cd ~/catkin_ws/src/ros_seminar
cd ~/catkin_ws/src/ros_seminar/rosseminar_hironx
cd ~/catkin_ws/src/

便利ですね!

著者:Yumiko Suzuki

ROS Workshop for Beginners on 7th September ROSワークショップ初級編を開催しました

We had ROS Workshop at Hongo, Tokyo.
The participant prepared own Ubuntu PC and installed indigo.
You can experience ROS workshop by the LiveUSB without installation of Ubuntu on your machine.

Thanks you for joining us!!



今回も本郷のオープンスペースにてROSワークショップ初級編を開催しました.
ご自分のPCでUubuntu環境が準備できなくても,LiveUSB等でワークショップを体験できます.

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,オープンソースを社内で運用していく際の疑問点等にも随時お答えしています.

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

出張セミナー,カスタマイズワークショップ,個別コンサルティング,プライベートワークショップも承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

IMG_20160907_160749

著者:Yumiko Suzuki

ROS Workshop for Beginners on 2nd September ROSワークショップ初級編を開催しました

We had ROS Workshop at Hongo, Tokyo.
We used custom ROS-preinstalled LiveUSB, so people had ROS experience without change your PC environment.
All of attendee ran through the all topics.

Great work, everyone!!



今回も本郷のオープンスペースにてROSワークショップ初級編を開催しました.
皆さん,ご自身のPCにROSをインストールしてのご参加でした.
ご自分のPCでUubuntu環境が準備できなくても,LiveUSB等でワークショップを体験できます.

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,社内で運用していく際の疑問点等にも随時お答えしています.

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップも承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp

IMG_20160902_175735 IMG_20160902_175741

著者:Isaac Saito

NEXTAGE Open in Singapore revisited: both hands assembly using camera imageNEXTAGE Open in シンガポールその2:画像処理と両手を使った物品組み立て


ROS が普及したことで,ロボット開発者の間である種の共通言語となりつつあると言っても過言ではありません.既に多くのロボットの可動実績があり,ユーザ数は10万人を超えるとも言われ (2015年 ROSCon より),ロボットのシステム構築において着実に情報が蓄積されており,それを元に更に益々ユーザ層が厚くなるといった良い循環ができています.

とはいえロボット毎のハードウェアの違いを基にした差異は避けられないもの.同じロボットを扱う開発者間の情報は貴重でしょう.
弊社がソフトウェアのメンテナンスを中心となって行わせて頂いている NEXTAGE Open (カワダロボティクス社) も世界中にユーザがおり,私達も情報共有に微力ながら貢献しています.NEXTAGE Open の ROS 版ソフトウェアの利用に際して,議論はメーリングリストへ,御質問は github へどうぞ.


表.github 上で議論中のチケット一覧

nxo_ntu_bothhands_pickplace
今日は,先日もお伝えしたシンガポールの Nanyang Technological University (NTU) の研究者が公開している,NEXTAGE Open の動画を紹介します.今回はカメラからの入力を元に幾つかの Pick&Place を行っているようです.今のところこれら動画中のアプリケーションソフトウェアは公開されていないようですが,御興味があれば動画サイトのコメント機能でコメントで開発者に連絡してみると良いでしょう.


One of its many achievements as ROS being used for more and more robots is that it’s becoming a common language for the robot developers. One estimate (which is actually made by the CEO at OSRF, the maintenance organization of ROS) indicates that the userbase has now well reached 100,000 at the time of 2015 ROSCon. With vast amount of userbase with accumulated information for robot system development, we’re seeing a very successful lifecycle of ROS collectively expanding more info and users.

Still, flesh side of robots – hardware – inevitably differentiates the application level of development per robot, and therefore the conversation among the users of the same robots is valuable. For NEXTAGE Open (Kawada Robotics Inc.), the one that we TORK has been actively maintaining, there are a couple of active forums: discussion can be started at mailing-list and questions at its github.


Table. Current issues of NEXTAGE Open ROS software on github

Today we have a few videos from researchers from NTU (Nanyang Technological University) (there was one blog post before already) in Singapore that utilize vision input for pick & place application. Code for these app are likely not yet publicized but you can contact the researchers’ group by commenting on each video on the video sharing website.



著者:Isaac Saito

3周年とサポート・コンサルティングサービスの実績経過TORK’s 3rd year mark and our support/consulting progress


2016年8月8日,おかげさまで TORK は設立3年を迎えました.

ロボティクス技術を使った製品開発に対する世間の関心の高まりに呼応してか,弊社としてもロボットへのオープンソースソフトウェア適用について企業様の関心の高まりを感じる一年でした.2014年度から行ってきた ROS ワークショップ (初級編中級編等) は引き続き好評を頂き毎月開催しています.

また,創業以来続けさせて頂いているカワダロボティクス様の双腕ロボット NEXTAGE Open 用オープンソースソフトウェアのサポートサービスも順調にご利用頂いています.それに加えこの一年で,新たにロボットの種類を限定せずにお問合せに応えるチケット制コンサルティングサービスを開始し,企業様の多種多様なリクエストにより柔軟にお応えできるよう努めてまいりました.

これらのサポート・コンサルティングサービスはこの1年間で合計72回のお問合せを頂き,94%にあたる68件が解決・終了したか,或いは解法案をご提示済です.分野別では NEXTAGE Open で41件,それ以外の分野でのコンサルティングで31件頂戴しました.1年毎のお問合せ件数ですと,2015年8月時点では46.7件のペースでしたので (参考:昨年同時期の記事によると2014年1月から2015年8月までで74件の問合せ),1.5倍超のペースでお問合せ頂いていることとなります.

コンサルティングサービスの内容は,既存のオープンソースロボットに関するもの (BaxterTurtlebotFetch 等),ROS のモジュールの使い方やカスタマイズ方法,自社開発への ROS 適用上のお悩み等を頂いています.カスタマイズのお問合せが転じてカスタム開発の依頼を頂くケースも出てきました.

これからも,お客様のご要望に応え,産業・学術界でのオープンソースロボティクスの進展に寄与できるよう,より一層努力して参ります.


TORK has just passed 3rd annual mark on August 8th, 2016.

Along with the global trend of robotics business and research boost, we’ve been happilly receiving interests and requests for opensource robotics technology development that we’ve contributed to and have been supporting for since our day 1 in 2013. Our ROS workshop series (beginnersintermediate etc.) are successfully running multiple times every month.

Our ticket-based support service for the dual-arm industrial robot NEXTAGE Open (Kawada Robotics) is growing its user base as well. This year round, in addition, we started opensource robotics consulting service. This new service is not restricted to a certain robot nor technology, but only limitation is “opensource robotics”, so that we can work with corporate engineers and managers for their problems regarding their robotics projects.

During the last 1 year period, we’ve received 72 tickets for total, 41 for NEXTAGE Open and the rest of 31 for other subjects. 68 tickets (94% of overall tickets) are solved/closed or possible solution is proposed to the customers. Compared to the previous year, we’re getting 1.5 times more requests (46.7 tickets/year at Aug 2015 according to the last year’s post).

Thank you all for your business with us, and understanding toward the opensource robotics.

TORK Montage 2015-2016

著者:Yumiko Suzuki

ROS Workshop for Beginners on 3rd August ROSワークショップ初級編を開催しました

We had ROS Workshop at Hongo, Tokyo.
We used custom ROS-preinstalled LiveUSB, so people had ROS experience without change your PC environment.
All of attendee ran through the all topics.

Great work, everyone!!



今回も本郷のオープンスペースにてROSワークショップ初級編を開催しました.
ご自分のPCでUubuntu環境が準備できなくても,LiveUSB等でワークショップを体験できます.
一つ一つのタスクに対して積極的な質問をいただきながら最後まで完遂しました.お疲れ様でした!

初級編では環境の構築からセンシングデバイス,サーボの実機をROSで動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,社内で運用していく際の疑問点等にも随時お答えしています.

7-9月のワークショップ開催日程も公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップも承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp


IMG_20160727_162345

著者:Isaac Saito

How to create a page of your robot on ROS wikiROS wiki に自社/自分のロボットを掲載する方法


ROS で動くロボット,ROS が使われているロボットは一体幾つあるのですか?というのはとてもよく耳にする質問です.全貌の把握を試みるのは別な方に譲るとして,ROS の情報が一元的にまとまっている ROS wiki 上には,ROS 対応ロボット一覧ページがあります.たった今ざっと数えたところ,100種類は確実に超えていることを確認したところで,思考が停止しました.このページは手動で管理されているものなので,勿論これで全部ではないと思うと,多いですね.

このロボット一覧ページは前述の,ROS 対応しているロボットを知りたい,といったニーズに応える現状の最適な場所だと思われます.アクセス数も ROS wiki 全ページ群の中で9番目に多い (2015年7月の調査) とのことで,自社のロボットをここに掲載することはそれだけでロボット業界への効果的な告知になり得る,と考えられるのではないかと重います (ただしあくまで中立のコミュニティですから,やり過ぎな商業的告知には指摘が入る可能性もあります).

さて,ではどうやってこのページヘの自身のロボットを掲載するか.この方法が分からないという声も最近頻繁に耳にするようになりましたので,ROS wiki 上にその方法をまとめました.このページをご覧ください.

#私も自己流で編集して叱られたりコンテンツ削除されたり,時には褒められたりしながら学びました*

本件でご不明点があれば,ROS に関する質問はいつも通りの answers.ros.org か,日本語 ML でお問合せされるのが良いと思います.あと,弊社も有償でコンサルティングサービスを行っています 🙂


One of the common questions surrounding ROS is that how many robots are “ROS-compatible”? While we wait for someone else for figuring out the exact number, on ROS wiki, central source of information regarding ROS, there’s a manually-maintained list of robots that work with/on ROS. Skimming through it yields easily over 100 robots.

This listing page apprently functions as the best monolithic source of all ROSified robots as far as we are aware of, and it’s proven to work for the purpose; access rate of the page is 9th highest among all pages on ROS wiki (according to metrics in July 2015). So it makes a total sense to list your own robot on that page to get a good, effective exposure to the global robotics community (you just have to respect that the entire ROS wiki is commercial-free zone; No aggressive advertisement should take place).

Then, to answer the next common questions we’ve recently heard of, which is how we can add a list on the wiki page, we just added an instruction. Please go to this page on ROS wiki for that.

Questions regarding the instructions should go to answers.ros.org as always.

roswiki_robotspage_denso
Image: Part of the robot list. Robots we (TORK) maintain the ROS packages (NEXTAGE Open, Denso etc.) are there too.

著者:Yumiko Suzuki

Thank you for the wonderful souvenirs ! お土産ありがとうございます!


We had a meeting with a customer at Hongo, Tokyo.
We received Ebi-sembeis as souvenirs today.
This Ebi-sembeis (shrimp cracker) is a very famous gift in Japan.
Thank you for the wonderful souvenirs !!!

ROS Seminar courses will be held in summer 2016 by TORK in Tokyo, Japan. Any inquiry can be posted at info[a-t]opensource-robotics.tokyo.jp


打ち合わせでお客様からお土産を頂きました.お気遣い頂き恐縮です.
坂角総本舗の海老煎餅です!最高です!!ありがとうございます!!!
いつも以上に仕事を頑張っております!

ROSやオープンソースに関わるコンサルティング,出張ワークショップ,カスタマイズワークショップも承っております.
詳細はWebページをご覧いただくか,メールにてお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp

7-9月のワークショップ開催日程も公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

その他,こういった企画を実施して欲しい等,TORKにやってもらいたいことのご意見ご要望もお待ちしております!
メール以外にもfacebooktwitterアカウントもございますのでそちらにメッセージ,リプライにてご意見いただくことも可能です.
お気軽にお問い合わせください.

IMG_20160727_154445 IMG_20160727_154619

著者:Yumiko Suzuki

ROS Workshop for Beginners on 13th JulyROSワークショップ初級編を開催しました

We had ROS Workshop at Hongo, Tokyo.
We used custom ROS-preinstalled LiveUSB, so people had ROS experience without change your PC environment.
All of attendee ran through the all topics.

Great work, everyone!!



今回も本郷のオープンスペースにてROSワークショップ初級編を開催しました.
ご自分のPCでUubuntu環境が準備できなくても,LiveUSB等でワークショップを体験できます.
本日も全員が最後まで完遂しました.お疲れ様でした!

初級編ではROSの環境の構築からセンシングデバイス,サーボの実機を動かすところまで半日で習得できます.
時間中にはROSに関するお困りごとだけでなく,社内で運用していく際の疑問点等にも随時お答えしています.

7-9月のワークショップ開催日程も公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

IMG_20160713_153735

著者:Yumiko Suzuki

ROS Workshop Schedule, from July to September 20162016年7月-9月のROSワークショップ日程


Here are the schedule of our ROS workshop series during the third three months of 2016!

Jul. 07 Thu 13:30- Introductory
Jul. 13 Wed 13:30- Introductory
Jul. 15 Fri 13:30- Introductory
Jul. 22 Fri 10:30- Intermediate
Aug. 03 Wed 13:30- Introductory
Aug. 10 Wed 13:30- Introductory
Aug. 16 Tue 13:30- Introductory
Aug. 19 Fri 10:30- Intermediate
Sept. 01 Thu 13:30- Introductory
Sept. 07 Wed 13:30- Introductory
Sept. 13 Tue 13:30- Introductory
Sept. 16 Fri 10:30- Intermediate
Sept. 27 Tue 13:30- Introductory
Sept. 29 Thu 10:30- Intermediate

Venue: Hongo, Tokyo

Inquiries: info[at]opensource-robotics.tokyo.jp

IMG_20151112_182120



以下日程でROSワークショップを行います.

7月07日(木)13:30~ ROSワークショップ初級編
7月13日(水)13:30~ ROSワークショップ初級編
7月15日(金)13:30~ ROSワークショップ初級編
7月22日(金)10:30~ ROSワークショップ中級・マニピュレーション編
8月03日(水)13:30~ ROSワークショップ初級編
8月10日(水)13:30~ ROSワークショップ初級編
8月16日(火)13:30~ ROSワークショップ初級編
8月19日(金)10:30~ ROSワークショップ中級・マニピュレーション編
9月01日(木)13:30~ ROSワークショップ初級編
9月07日(水)13:30~ ROSワークショップ初級編
9月13日(火)13:30~ ROSワークショップ初級編
9月16日(金)10:30~ ROSワークショップ中級・マニピュレーション編
9月27日(火)13:30~ ROSワークショップ初級編
9月29日(木)10:30~ ROSワークショップ中級・マニピュレーション編

場所については都内・本郷のミーティングスペースでの実施を予定しています.

お申込みは以下より詳細をご確認の上,ページ内のお申込みリンクよりエントリをお願い致します.

ROSワークショップ初級編
ROSワークショップ中級・マニピュレーション編

日程の調整,その他ご相談,企業内ワークショップ,カスタマイズワークショップも承っております.お気軽にご相談ください.
info[at]opensource-robotics.tokyo.jp

IMG_20151112_182120

著者:Isaac Saito

Easy Teaching Operation for NEXTAGE Open by MoveIt! JoystickMoveIt! のジョイスティック機能で NEXTAGE Open を楽々ティーチング


ROS の動作計画アプリ MoveIt! を使った開発を行っている方々の中には,MoveIt! のバイナリ提供は更新が滞ってるから仕方なくソースコードをコンパイル (そしてコンパイルエラーと格闘) して時間を費やしてしまっている方もいるのではないでしょうか.ご安心下さい.最近メンテナンスチームが刷新されソフトウェアの更新が再び活発になってきており,今年に入って既にバイナリは3回更新されました.TORK もメンテナンスに積極的に貢献しています.

当協会のブログでも最近何度か MoveIt! の利用法についてご紹介してきました ([1][2]).今回も新機能のご紹介です.今日紹介するのはジョイスティックから MoveIt! を制御する方法です.ロボットの動作生成・実行が,今までのように Rviz 上でマウスを使うことなく,ジョイスティックで可能になりました.

joystick_moveit-0_7_1_nxo

使い方は簡単.ジョイスティックが刺さったマシン上で,図のように Planning タブの AllowExternalExecution にチェックをして下さい.
あとは,以下の launch ファイルを立ちあげればジョイスティックでロボットを動かすことができます.ジョイスティックのコマンド等詳細な利用方法はこちらの WEB ページをご覧ください.

<!-- https://github.com/ros-planning/moveit_setup_assistant/pull/90 -->
<launch>
  <arg name="dev" default="/dev/input/js0" />

  <!-- Launch joy node -->
  <node pkg="joy" type="joy_node" name="joy">
    <param name="dev" value="$(arg dev)" /> <!-- Customize this to match the location your joystick is plugged in on-->
    <param name="deadzone" value="0.2" />
    <param name="autorepeat_rate" value="40" />
    <param name="coalesce_interval" value="0.025" />
  </node>

  <!-- Launch python interface -->
  <node pkg="moveit_ros_visualization" type="moveit_joy.py" output="screen" name="moveit_joy"/>
</launch>

また,NEXTAGE Open であれば,MoveIt! が起動している状態で次のコマンドひとつ起動すればジョイスティックが有効になります (jsX の値は変えて下さい).NEXTAGE Open 用の利用法をこちらにも記載しています.


One of good news about ROS community is that the maintenance of MoveIt! got revitalized where TORK is contributing to as well. In 2016 there has already been three binary update releases so far. No more building from source if you were forced to!

We’ve mentioned about MoveIt! a few times recently ([1][2]), so do we today again. With the version 0.7.2 (on ROS Indigo), you can operate robot arms by joystick via MoveIt!

joystick_moveit-0_7_1_nxo

Running the feature is as simple as joystick. On RViz on the host where the joystick is plugged, check “Planning” tab –> “AllowExternalExecution” (see the image below).
Then run a launch file, either the one in your XXXX_moveit_config package if there’s already the aforementioned launch file, or simply make a launch file with the following:

<!-- https://github.com/ros-planning/moveit_setup_assistant/pull/90 -->
<launch>
  <arg name="dev" default="/dev/input/js0" />

  <!-- Launch joy node -->
  <node pkg="joy" type="joy_node" name="joy">
    <param name="dev" value="$(arg dev)" /> <!-- Customize this to match the location your joystick is plugged in on-->
    <param name="deadzone" value="0.2" />
    <param name="autorepeat_rate" value="40" />
    <param name="coalesce_interval" value="0.025" />
  </node>

  <!-- Launch python interface -->
  <node pkg="moveit_ros_visualization" type="moveit_joy.py" output="screen" name="moveit_joy"/>
</launch>

For the detail follow the usage page.

To run on NEXTAGE Open, make sure MoveIt! is running then run a single command below (modify jsX). You can also refer to wiki for joystick usage for NEXTAGE Open.

roslaunch nextage_moveit_config joystick_control.launch dev:=/dev/input/js1


(At the top window, the human operator plans the movement on RViz visualizer. Once the plan looks good then operator executes the plan so that the simulated robot in the bottom window conducts the movement. This is a screen capture so joystick isn’t invisible, but yes, all the robot’s movement is commanded from a Sony PS3 joystick.)

 

著者:Isaac Saito

Investigating unexplored region while making a map ROS で地図作成中に未開拓領域を探す

ROS でロボットが地図を作成する際に,大抵の場合はジョイスティックやキーボード等を使い,テレオペレーションでロボットに指示を即時で与えながらロボットを移動させているかと思います.中には,地図を作るためにロボットが”探索”する領域を事前に計画したい方もいるのではないでしょうか.

frontier_exploration というパッケージはそのための ROS インタフェイスを提供しています.今回 Turtlebot に frontier_exploration を組込んでみました.下の動画 (長いです…) では Gazebo シミュレータ上でサンプルの地図上に Turtlebot を出現させ,地図が無い領域/地点にロボットを向かわせています.画面下半分がシミュレータの,上半分が操作用の RViz のウィンドウです.

始めに探索したい領域をポリゴンで指定し,その中の一点を最後にクリックすることで,ロボットがその領域の探索に向かいます.ロボットが移動し始めてからはロボットは自律で移動し,ユーザは一切指示を与えていません.

手早く挙動を確認したい方はこちらの動画を (Turtlebot ではありませんが).

ここでは,探索計画は RViz 上で手動で行っていますが,向かわせたい地点を actionlib で送信しているため,API に従って計画をプログラムすることも可能です.

gmapping で地図作成を行い,move_base で移動を行うロボットであれば適用が可能です (他のパッケージを使う移動ロボットは試していませんが,難しくないはず?).


When making a map using ROS, you’re likely tele-operating your robot for every single move via keyboard or joystick at best. But I know a demand exists for “planning” in advance a region that robot explores to make a map.

That’s where a package called frontier_exploration gets useful; it provides ROS actionlib interface, through which users can send the location to explore. We just made a sample using Turtlebot to show how to integrate frontier_exploration package into your own robot. Resulted package can be seen at turtlebot_samples. As the following movie (It’s long! You’re warned…) shows, you can run by a single command Gazebo simulator, spawn Turtlebot on a sample map and send a command for the exploration.

You set the region to be visited by drawing a polygon on RViz, then after clicking a point within the polygon robot will move. Once it starts moving user isn’t sending anything (robot moves autonomously to the given goal along the computed path).

Shorter video is also available (it’s not Turtlebot. Video was taken by the original developer of the frontier_exploration package)

In these videos the robot is commanded manually on RViz window. You can also send commands programmatically using its API.

So far we confirmed that frontier_exploration can be applied to the robots with gmapping and move_base (incorporating with other navigation packages may be as simple?).

著者:Yumiko Suzuki

ROS Workshop for Intermediate Manipulation on 22th June ROSワークショップ中級・マニピュレーション編を開催しました


We had ROS Workshop for Intermediate Manipulation at Hongo, Tokyo.

The participant also joined our Beginners Workshop a few weeks ago, then re-setup her own PC, purchased robot parts and review all contents. Her fast learning and active question make a lecture really enjoied the event.

Thanks you for joining us!!


今回は本郷のオープンスペースにて,ROSワークショップ中級・マニピュレーション編を開催しました.
本郷のオープンスペースはコーヒーが一日中無料です!

本日の参加者の方は初級編の機材一式を購入し完璧に復習してから中級・マニピュレーション編にご参加いただきました.
「いつも新しい知識を得られるので中級編も参加できてよかったです」とのコメントをいただきました.
長時間の講習お疲れ様でした.ありがとうございました.

7-9月のワークショップ開催日程も公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップ,出張ワークショップ,カスタマイズワークショップも承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp


IMG_20160622_160213 (1)

著者:Yumiko Suzuki

ROS Private Workshop on 8th June プライベートROSワークショップを開催しました


We also had a private ROS Workshop at the seminar room in the company.

The participants prepared own Ubuntu PC and installed indigo. Their active questions make a lecture really enjoied the event.

Thanks you for joining us!!


本日は某企業様の会議室をお借りして,企業内でのプライベートROSワークショップを開催いたしました.
実践的な質問をいただきながらの活発なワークショップとなりました.
長時間のワークショップ,皆様お疲れ様でした.

出張ワークショップ,カスタマイズワークショップも承っております.
詳細はWebページをご覧いただくか,メールにてお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp

7-9月のワークショップ開催日程も公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

お申込みお問い合わせお待ちしております!

IMG_20160608_170919 IMG_20160608_170900

著者:Isaac Saito

Thanks to opensource community, issue with NEXTAGE Open software (3D model geometry, tf) got resolved promptlyNEXTAGE Open ソフトウエアに不具合,オープンソースコミュニティにより迅速に修正完了 (3D モデル,tf の問題)

ユーザからの報告により NEXTAGE Open の tf の挙動に問題点がみつかりました.既に修正版をバイナリ (Ubuntu の apt-get でインストールする版のことです) で提供しています.修正版の適用方法等,詳しくは告知をご覧下さい.

製品のソフトウェアをオープンソースにするメリットの一つは,テストし報告してくれる人を多く集められることにあると,TORK は考えています.今回はまさにソフトウェアをオープンソースにしていたから起こり得た問題解決でした.解決までの流れはまさにオープンソースコミュニティのそれで,異なる組織から意見が共有された結果として,迅速に解決することができました;本問題現象を議論する github 上のチケットを時系列で追っていくと:

  • ユーザが問題点を指摘
  • –> メーカ開発者からコメント
  • –> 別の組織のユーザからもコメント
  • –> メンテナンス元 (我々です) が修正候補を作成
  • –> ユーザが修正候補をテストし問題が修復されることを確認
  • –> メンテナンス元修正候補が採用

4つの組織から一週間程度の間に意見が出され,解決にたどり着いているのがわかります.そしてこの特定の問題に義務がある人は (我々以外は) 居ないのです.これだけクイックに組織の壁を超えた問題解決が行えるのはコミュニティがオープンになっているからこそではないでしょうか.

更にその後のバイナリ作成と公開は,(これまで通り) ROS 管理チーム (OSRF) が運営するネット上の仕組みを利用させてもらっています.そこに至る手順は至ってシンプル (*1):

TORK は,ソフトウェアを公開することで,企業様が開発を加速し品質を高めていくことができると信じて,日々オープンソースに貢献しています.

*1 初回公開時にはやや長いプロセスを経る必要があります.しかしひとたび公開作業が終了すれば,その後の更新版の公開は上に書いたようにいたって簡単です.


A user reported an issue in tf with NEXTAGE Open software that got resolved in a quick fashion thanks to opensource collaboration across organizations/userbases. Binaries (the ones installable by apt-get) including the fix is already available online. Please see more detail of the issue and how to apply the fix this ticket on github.

We, TORK, thinks without any doubts that the big advantage of making software public is that you get testers from across the globe. The fix this time is a true realization of this opensource dogma; if I review the ticketed report for this issue on github now, you’ll see the flow:

  • A user reported the issue.
  • –> Someone from robot’s manufacturor gave a comment.
  • –> Another heavy user commented.
  • –> Maintainer (us) created a fix candidate.
  • –> Reporter user tested fix candidate and confirmed that it fixes.
  • –> Maintainer pulled in the fix.

At least four persons from different organizations contributed so far up to this point, within only a week timeframe. And everybody is not obligated to this ticket (but us).

Going further, once the fix is pulled then it’s also important to make the fix easily accessible by the users. Having them as binary form is the way to go. We do that by relying on the platform the ROS maintenance team (OSRF) runs, as have we already done so. Steps for that is really simple (*1):

TORK believes that opensource software development contributes to improving quality and fastening the engineering cycle for the corporations. That’s why we have and will continue contribution to the opensource community.

*1 Initial release takes a bit more steps. But once done so it’s really easy!

著者:Isaac Saito

MoveIt! motion planner 0.7.1 may be a fix to long, unorganizaed planning timeROS, MoveIt! バージョン0.7.1 で経路計算のより安定化が可能に


We talked about the latest MoveIt! update to 0.7.1. That change introduced several important/convenient new features, one of which is that you can now set the default planning algorithm (relevant ticket on github).

Before this change, LBKPIECE was set as a default planner and it wasn’t clear for the users how to make a change for it. The algorithm has reportedly not been finding solutions when working with MoveIt!, e.g. in our ROS introductory workshop we have to ask participants to go through counter-intuitive steps to change the algorithms for DENSO robot.

The new feature allows you to choose algorithm of your choice, e.g. RRTConnect.
If your robot already comes with moveit_config package but has not utilized this feature, you might as well do so.

In NEXTAGE Open's software, you can set the default planner like this in config/ompl_planning.yaml file in your moveit_config package.

In NEXTAGE Open’s software, you can set the default planner like this in config/ompl_planning.yaml file in your moveit_config package (see this pull request for the full change).




前回紹介した MoveIt! バージョン更新により,0.7.1に上がり幾つか新機能が利用可能となりました.
その内の一つがデフォルトの経路探索アルゴリズム指定機能です (github 上の関連チケット)
いままでは起動時の経路探索アルゴリズムは LBKPIECE で,MoveIt! 上で動作させると解を見つけないことも多く,たとえば弊社のワークショップでは DENSO ロボットの MoveIt! 応用をご紹介しますが,その際にややこしい手順を経て経路探索アルゴリズムの変更する手順としていました.
本機能により,RRTConnect 等の解が出やすいアルゴリズムを MoveIt! 起動の際に 選択できるようになりました.もし,ご自分のロボットでデフォルトのアルゴリズムをカスタマイズしていない方がいらっしゃいましたら是非ご参考ください.

In NEXTAGE Open's software, you can set the default planner like this in config/ompl_planning.yaml file in your moveit_config package.

デフォルトプランナの設定は,NEXTAGE Open のソフトウエアの場合,お使いのロボットの moveit_config パッケージの config/ompl_planning.yaml に図のように変更することで行うことができます (参考 pull request).


著者:Isaac Saito

Real-time Impedance Control on NEXTAGE Open Dual-arm Robot Using Dynpick F/T Sensor双腕ロボット NEXTAGE Open での実時間 impedance 制御が Dynpick F/T センサにも対応


カワダロボティクス社製の双腕ロボット NEXTAGE Open (/ Hironx) の力センサを用いた実時間制御は以前のブログ記事でお伝えしました.当時の例で用いていた JR3 力センサは日本国内では販売が終了 (*1) していますが,今回日本国産,ワコーテック社の Dynpick センサに対応しました.



Dynpick 小型静電容量型6軸力覚センサ (画像元)

動画がまだありません,すみません!挙動自体は JR3 のものと同様なので,上記記事中のものと同じ動画でイメージを掴んでいただけるとこれ幸いです.



例によって,必要なソースコードはすべて公開しております ([1], [2]).

実装上の留意点が幾つかあります:

  • 現状では wdf-6m200-3 (廃番,USB-Serial 接続) にのみ対応しています.同社の新型製品 (USB-Serial ではない) ではドライバの都合でそのままでは本機能はおそらくつかえません.
  • 本機能の適用には QNX ライセンスに基づいたコントローラボックス上のソフトウェアの改変が必要なのと,ノウハウが必要なのとで,適用方法は公開しておりません.

FAQs:

  • Q: F/T センサを追加で装着しても,装着前に使っていたグリッパは使えますか? A: はい,問題ありません.気をつけるべきは,キネマティクスが変わるのでロボットの3次元モデルをセンサを含めるよう更新が必要となります.また,センサ装着,グリッパの再装着等の据付作業はお客様御自身で行って頂くこととなります.
  • Q: 配線変更やケーブル追加,その他電子機器の追加設置は必要になりますか? A: はい,F/T センサとその出力をを処理するコンピュータとの通信のために必要です. なお本ページ中で取り上げている JR3・Dynpick は USB/RS232C を使います.
  • Q: F/T センサを Ubuntu に接続してインピーダンス制御機能を利用できますか? A: Dynpick の場合,はい,ただし得られる結果は要件により異なります.Dynpick には ROS で使える Ubuntu 用デバイスドライバパッケージが無償入手でき,デバイスを繋げばすぐ使いはじめることが出来るのですが,Ubuntu は基本的にはリアルタイム性を担保しないため,やや限定的となります.本ページでご紹介しているのは F/T センサを QNX に接続し,そのリアルタイム機能を活かす方法です.インストール方法が複雑となります.
  • Q: インピーダンス制御機能の導入費用は? A: TORK サポート窓口までお問合せ下さい.

なお本件に関わるソースコードの公開は,株式会社豊田中央研究所様の御厚意により実現しています.

*1 米国メーカ JR3 Inc. は今日現在存続しています.連絡したら返信も返ってきました.


Earlier this year we mentioned that for Kawada’s industrial dual-arm robot NEXTAGE Open (/ Hironx), a force-torque sensor “JR3” can be integrated into its real-time control loop. Now that then-sales agency discontinued import so that JR3 becomes not easily available for Japanese users, another sensor support has been desired. Recently we’ve added Wacohtech’s Dynpick to the lineup.



“Dynpick” Miniature capacitive 6-axis force sensor (image source)

Fresh out of the lab, we haven’t shot any video of the robot with this! For now you can get an idea from the same video that uses JR3.



We believe the best practical approach to sustainably develop software is to make it opensouce. So did we put them online as usual ([1], [2]).

To implement the necessary changes, a few thiings to be noted:

  • Currently only the product wdf-6m200-3 is tested (discontinued,USB-Serial), and other newer type of Dynpick products shouldn’t work as it is, since some tweaks are most likely needed for them to work on QNX.
  • Because the work requires modification on the software on ControllerBox (QNX), we have no plan so far to write publicly about how to apply the change.

FAQs:

  • Q: Can the same gripper be used after F/T sensor attached? A: Yes, no problem. Robot’s kinematics changes, however, so updating robot’s 3D model will be necessary. Attaching the F/T sensor and re-attach the gripper is your responsibility.
  • Q: Is adding/changing cabling or electronics to provide communication between sensor and the robot necessary? A: Yes, for the communication between the F/T sensors and the computer. JR3 and Dynpick are USB/RS232C.
  • Q: Can the F/T sensor be connected to Ubuntu for impedance controller feature? A: Depending on the requirement of your application. Dynpick has a device driver package for ROS that works on Ubuntu This works out-of-the-box, but Ubuntu is not a real-time OS perse by default. The solution explained on this page is to connect the sensor to QNX to take advantage of its real-time capability. Installation isn’t easy as mentioned earlier.
  • Q: How much is the cost to activate the impedance control? A: Please contact us.

The opensource contribution of this project was realized thanks to Toyota Central R&D Labs., Inc..

著者:Yumiko Suzuki

ROS Workshop for Beginners on 25th MayROSワークショップ初級編を開催しました


We had ROS Workshop for Beginners at Hongo, Tokyo.
You can experience ROS workshop by the LiveUSB without installation of Ubuntu on your machine.

Thanks you for joining us!!


今回も本郷のオープンスペースにて,ROSワークショップ初級編を開催しました.
本郷のオープンスペースはコーヒー・アイスコーヒーが一日中無料です!

ROSワークショップ初級編はLinuxが初めての人でも参加可能です.
UbuntuPCを準備出来なくても弊社のLiveUSBを使ってワークショップを実施可能です.
時間中時間後にROSを社内に導入する際のお困りごとにもお答えしています.

7-9月のワークショップ開催日程も公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップ,出張ワークショップ,カスタマイズワークショップも承っております.
詳細はWebページをご覧いただくか,メールにてお気軽にお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp


IMG_20160727_162345

著者:Isaac Saito

Update; Programming for NEXTAGE Open via MoveIt! motion plannerアップデート) ROS の経路計画用ライブラリ MoveIt! 経由での NEXTAGE Open のプログラミング


ロボットを扱う上で必要な機能がたくさん収められている ROS の中でも,経路計画用ライブラリ MoveIt! は代表的なツールの1つです.

腕をはじめとして,ロボットの体の部位は我々人間のそれと同じように,複数の関節からなりますが,それらを直感的に操作できるようにするためのプログラミング・インタフェイスを備えています.

その機能は当社がソフトウェアのサポートを行っているカワダロボティクス社製双腕ロボット NEXTAGE Open でもフルに活用可能です (既に MoveIt! を用いて NEXTAGE Open を動作させているユーザ様事例がこのページに掲載しております).

MoveIt! を利用してプログラミングを行う際のサンプルの拡充も続けてまいります.既存のユーザ様からよくいただく質問として,”hrpsys ( / OpenRTM) 経由でのプログラミング方法はわかったが,ROS でプログラムを書く方法がわからない” というものがあります.これに応えるために ROS_Client と呼ばれる NEXTAGE Open 専用の ROS クライアントクラスを用意しました.使い方はこちらの wiki をご覧ください.ご不明点などは github 上で聞いていただくと,当社かユーザグループのどなたか 😉 から返信が入ると思います.

また,MoveIt! 自体のメンテナンスにも TORK は積極的に参加しており,最新の機能やバグフィックスの利用を開発者ができるだけ手軽に利用することができるよう貢献しています.

caption_is_here

(MoveIt! が NEXTAGE Open の左腕の関節グループを認識するように設定を行っている所.難しい設定も GUI 上で行うことができます.)



MoveIt! not just comes with state-of-art algorithms but also a programming interface that you can program complicated manipulation tasks in an intuitive fashion.
It’s not an exception with Kawada Robotics’ dual-arm NEXTAGE Open robot, which we provide professional, full-fledged software support for. We’ve been maintaining so-called ROS_Client, a designated ROS programming interface for NEXTAGE Open in Python, to utilize MoveIt!’s simple interface while trying to minimize users’ effort to learn new stuff like MoveIt! as much as possible. If you’re a programmer for NEXTAGE Open and like to write your code in Python and ROS, please have a look at this wiki page. You’re always welcomed for questions and discussions at its github issue page where some of us or developers on the internet land 😉 will respond fairly quickly.

TORK also contributes to maintaining MoveIt! itself, to make the new feature and bugfixes available in the easiest way for all the users in the world.

caption_is_here

(MoveIt! configuration going on for the NEXTAGE Open; grouping joints as “left-arm”. Complicated tasks regarding manipulation becomes handy too with GUI tools on MoveIt!.


著者:Yumiko Suzuki

ROS Workshop for Intermediate Manipulation on 19th May ROSワークショップ中級・マニピュレーション編を開催しました


We also had ROS Workshop for Intermediate Manipulation at Hongo, Tokyo.

They took part a workshop using our LiveUSB. You can experience ROS workshop by the LiveUSB without installation of Ubuntu on your machine.

Thanks you for joining us!!


今回も本郷のオープンスペースにて,ROSワークショップ中級・マニピュレーション編を開催しました.
本郷のオープンスペースはコーヒー・アイスコーヒーが一日中無料です!

UbuntuPCを準備出来なくても弊社のLiveUSBを使ってワークショップを実施可能です.

ROSを使うために新しくマシンを購入されるという方でどんなマシンを購入したらよいかというご質問を受けることがあります.
そんな方は「ゲーミングPC」とカテゴライズされている商品から選ぶと良いかもしれません.
可能であればNvidia搭載のものをおすすめします.

7-9月のワークショップ開催日程も公開中です!

ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

プライベートワークショップ,出張ワークショップ,カスタマイズワークショップも承っております.
詳細はWebページをご覧いただくか,メールにてお気軽にお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp


IMG_20160519_180008

著者:Yumiko Suzuki

ROS Workshop for Beginners on 11th MayROSワークショップ初級編を開催しました

We had ROS Workshop at Hongo, Tokyo.
We used custom ROS-preinstalled LiveUSB, so people had ROS experience without change your PC environment.
All of attendee ran through the all topics.

Great work, everyone!!



今回も本郷のオープンスペースにてROSワークショップ初級編を開催しました.
ご自分のPCでUubuntu環境が準備できなくても,LiveUSB等でワークショップを体験できます.
本日も全員が最後まで完遂しました.お疲れ様でした!

ROSのワークスペースは複数作ることができます.
まず最初に”catkin_ws”と言う名前でワークスペースを作るお手本が多いですが,
catkin_wsという名前である必要はありません.自分の好きな名前でワークスペースを作ることができます.
バリバリROSで開発されている方にとっては当たり前のことでも,ROSを初めたばかりの人にとっては気付けないことが案外あったりするものです.

ROSワークショップに参加すると実際にROSで開発する際のちょっとしたコツが習得できますよ!
ROSを初めて勉強する人へのブログも公開しています. ご参考になさってください.

6月のワークショップ開催日程も公開中です!

IMG_20160511_183858

著者:Isaac Saito

Happy Mother’s Day 2016 for the robotics2016 母の日に贈る! ロボティクス便利ツール


Happy Mother’s Day (一日遅れ)!

さて,お母さんに限らずロボティクスの作業において,本質的でない作業はできるだけ減らしたいもの.新しいコンピュータを扱う際に必ず発生するインストール作業はそのうちの最たるものの一つではないかと思います.
ROS の Linux コンピュータへのインストールは,チュートリアルに従いコマンドをたった数回実行すれば終了するので,これがあまり面倒だという意識はないかも知れません.それにしても,その数回のコマンドの実行すら望ましくないケースがあります.コマンドの打ち間違いや,元来面倒くさがりとされるエンジニアのエゴだとか.

コマンド1行でインストール完了するスクリプトファイルを用意しました.
元々は,韓国の ROS ユーザグループ OROCA がコマンド2行でインストールできるように作成したものを,TORK が改良に貢献したものです.

例えば次のコマンドによってお手元の Ubuntu Linux コンピュータ上で1行インストーラを実行すると,ROS Indigo の desktop-full (基本パッケージ全部入りの贅沢版とでも言えば良いでしょうか) のバイナリがインストールされ,かつご自身で ROS の作業する場合に必要なフォルダ “Catkin Workspace” まで生成され,すぐにご自身の開発作業に入ることができます.

wget https://raw.githubusercontent.com/oroca/oroca-ros-pkg/master/ros_install.sh && chmod 755 ./ros_install.sh && ./ros_install.sh catkin_ws_tork indigo

この1行インストーラは現状では ROS Indigo の他,Jade,2016年版の Kinetic Kame にも対応しています.
問題報告等は OROCA プロジェクトの github ページに是非御連絡下さい.


Happy Mother’s Day!

To help busy mothers in robotics, TORK made a script to install ROS with just a single line of command (well, this helps not just moms).
Installing ROS on Linux computers is already made simple as only a few lines of commands. However, our experience tells that it’s sometimes not ideal, e.g. when a command skipped by mistake, typos happen. Besides those, engineers are inherently lazy.

Here’s a ROS single-line installer script. It is originally made by a ROS user group in Korea “OROCA” and TORK contributed to adding features.

For example, by running the following single command on your Ubuntu Linux machine, ROS Indigo desktop-full will be installed, along with your source workspace called “Catkin Workspace” and you can start your own work from the next command.

wget https://raw.githubusercontent.com/oroca/oroca-ros-pkg/master/ros_install.sh && chmod 755 ./ros_install.sh && ./ros_install.sh catkin_ws_tork indigo

It’s capable of ROS Jade and the 2016 version called Kinetic Kame, in addition to ROS Indigo.
Report and discussion is encouraged at OROCA project github page.

著者:Yumiko Suzuki

Private ROS Workshop on 19th AprilプライベートROSワークショップを開催しました


We also had a private ROS Workshop at the seminar room in the company.

The participants prepared own Ubuntu PC and installed indigo. Their active questions make a lecture really enjoied the event.

Thanks you for joining us!!


本日は某企業様の会議室をお借りして,企業内でのプライベートROSワークショップを開催いたしました.
実践的な質問をいただきながらの活発なワークショップとなりました.お疲れ様でした.

出張ワークショップ,カスタマイズワークショップも承っております.
詳細はWebページをご覧いただくか,メールにてお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp
お申込みお問い合わせお待ちしております!

IMG_20151112_182120

著者:Yumiko Suzuki

ROS Workshop for Intermediate Manipulation on 15th April ROSワークショップ中級・マニピュレーション編を開催しました


We had ROS Workshop for Intermediate Manipulation at Hongo, Tokyo.

The participant prepared own Ubuntu PC and installed indigo.
You can experience ROS workshop by the LiveUSB without installation of Ubuntu on your machine.

Thanks you for joining us!!


今回は本郷のオープンスペースにて,ROSワークショップ中級・マニピュレーション編を開催しました.
本郷のオープンスペースは一日中コーヒーが無料です!

本日の参加者の方はROS歴1年でタスクが順調に消化されていきました.
「独学で知ることが出来なかった基本を知ることが出来て参加出来てよかった」とのコメントをいただきました.
長時間の講習お疲れ様でした.ありがとうございました.

ワークショップはUbuntuで実施します.Ubuntuマシンをお持ちで無い場合は弊社のLiveUSBを使うことでご自分のマシン環境を変更することなくワークショップを体験することが可能です.
詳細はWebページをご覧いただくか,メールにてお問い合わせ下さい.

4-6月のワークショップ日程を公開しています.
プライベートワークショップ,出張ワークショップ,カスタマイズワークショップも承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp


IMG_20160415_150136

著者:Yumiko Suzuki

ROS Workshop Schedule, from April to June 20162016年4月-6月のROSワークショップ日程


Here are the schedule of our ROS workshop series during the second three months of 2016!

Apr. 13 Wed 13:30- Introductory
Apr. 15 Fri 10:30- Intermediate
Apr. 26 Tue 13:30- Introductory
May 11 Wed 13:30- Introductory
May 19 Thu 10:30- Intermediate
May 25 Wed 13:30- Introductory
June 09 Thu 13:30- Introductory
June 16 Thu 13:30- Introductory
June 22 Wed 10:30- Intermediate

Venue: Hongo, Tokyo

Inquiries: info[at]opensource-robotics.tokyo.jp

IMG_20151112_182120



以下日程でROSワークショップを行います.

4月13日(水)13:30~ ROSワークショップ初級編
4月15日(金)10:30~ ROSワークショップ中級・マニピュレーション編
4月26日(火)13:30~ ROSワークショップ初級編
5月11日(水)13:30~ ROSワークショップ初級編
5月19日(木)10:30~ ROSワークショップ中級・マニピュレーション編
5月25日(水)13:30~ ROSワークショップ初級編
6月09日(木)13:30~ ROSワークショップ初級編
6月16日(木)13:30~ ROSワークショップ初級編
6月22日(水)10:30~ ROSワークショップ中級・マニピュレーション編

場所については都内・本郷のミーティングスペースでの実施を予定しています.

お申込みは以下より詳細をご確認の上,ページ内のお申込みリンクよりエントリをお願い致します.

ROSワークショップ初級編
ROSワークショップ中級・マニピュレーション編

日程の調整,その他ご相談,企業内ワークショップも承っております.お気軽にご相談ください.
info[at]opensource-robotics.tokyo.jp

IMG_20151112_182120

著者:Yumiko Suzuki

ROS Workshop for Intermediate Manipulation on March ROSワークショップ中級・マニピュレーション編を開催しました


We also had ROS Workshop for Intermediate Manipulation at Yushima, Tokyo.

They took part a workshop using our LiveUSB. You can experience ROS workshop by the LiveUSB without installation of Ubuntu on your machine.

Thanks you for joining us!!


今回も湯島のミーティングスペースにて,ROSワークショップ中級・マニピュレーション編を開催しました.

ワークショップはUbuntuで実施します.弊社のLiveUSBを使うことでマシン環境を変更することなくワークショップを体験することができます.
詳細はWebページをご覧いただくか,メールにてお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp

長時間の講習お疲れ様でした.ありがとうございました.

4-6月のワークショップ日程を公開しています.
http://opensource-robotics.tokyo.jp/?p=1470
プライベートワークショップも承っております.
お気軽にお問合せください!
info[at]opensource-robotics.tokyo.jp


IMG_20160329_172456 IMG_20160329_172459

著者:Yumiko Suzuki

Private ROS Workshop on 25th MarchプライベートROSワークショップを開催しました


We also had a private ROS Workshop at the seminar room in the company.

Their active questions make a lecture really enjoied the event.

Thanks you for joining us!!


本日は某企業様の講演ホールをお借りして,企業内でのプライベートROSワークショップを開催いたしました.
活発にご質問をいただき1時間延長してのワークショップとなりました.お疲れ様でした.

出張ワークショップ,カスタマイズワークショップも承っております.
詳細はWebページをご覧いただくか,メールにてお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp
お申込みお問い合わせお待ちしております!

IMG_20151112_182120

著者:Yumiko Suzuki

ROS Workshop for Beginners on 7th MarchROSワークショップ初級編を開催しました

We also had ROS Workshop at Yushima, Tokyo.

Beginner’s Workshop covers the Leap Motion, 3D gesture sensor. The Leap is capable of tracking the fingers and palm of a user with millimeter accuracy.
leap_motion is a ROS driver for interfacing with the Leap, provides single hand 3D palm information.
The participants use its source code and study how to publish/subscribe a ROS topic in the workshop.

Thanks you for joining us!!

IMG_20160307_145944



今回も湯島のミーティングスペースにてROSワークショップ初級編を開催しました!
初級編ではLeap Motionを使います.Leap MotionはROSのパッケージがあり,ワークショップではソースコードをダウンロードして使います.
Leap Motionに初めて触れる方は,自分の手の動きに連動するVisualizerに感激されます.
本日も順調に進んで最後まで完遂しました.お疲れ様でした!

IMG_20160307_145944

著者:Yumiko Suzuki

Private ROS WorkshopプライベートROSワークショップを開催しました


We also had a private ROS Workshop at the seminar room in the company.

The participants prepared own LiveUSB and installed indigo. Their active questions make a lecture really enjoied the event.

Thanks you for joining us!!

IMG_20151112_182120


本日は某企業様のセミナールームをお借りして,企業内でのプライベートROSワークショップを開催いたしました.
市販のROS日本語本に沿って事前にROSをインストールしてご参加いただきました.
活発に質問もいただき時間を延長してのワークショップとなりました.ご依頼いただきありがとうございました.

出張ワークショップ,カスタマイズワークショップも承っております.
詳細はWebページをご覧いただくか,メールにてお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp
お申込みお問い合わせお待ちしております!

IMG_20151112_182120

著者:Yumiko Suzuki

ROS Workshop for Beginners on 25th FebruaryROSワークショップ初級編を開催しました

We also had ROS Workshop at Yushima, Tokyo.

He joined our Beginners Workshop with own PCinstalled Ubuntu and ROS indigo.
The participant is emacs user.
( I love emacs!!! ).

Thanks you for joining us!!

IMG_20160225_173126



今回も湯島のミーティングスペースにてROSセミナー初級編を開催しました!
今日の参加者の方は事前のご自分のマシンにROS indigoのインストールまで完了した状態でご参加くださいました.
お疲れ様でした!

IMG_20160225_173126

著者:Yumiko Suzuki

ROS Workshop for Intermediate Manipulation on Feburary ROSワークショップ中級・マニピュレーション編を開催しました


We also had ROS Workshop for Intermediate Manipulation at Yushima, Tokyo.

They took part a workshop using our LiveUSB. You can experience ROS workshop by the LiveUSB without installation of Ubuntu on your machine.

Thanks you for joining us!!

IMG_20160218_162646 IMG_20160218_162709


今回も湯島のミーティングスペースにて,ROSワークショップ中級・マニピュレーション編を開催しました.
今日の参加者は皆vi使いの方でした.(私はemacs派です!)

弊社のLiveUSBを使うことでマシン環境を変更することなくワークショップを体験することができます.
詳細はWebページをご覧いただくか,メールにてお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp

長時間の講習お疲れ様でした.ありがとうございました.

IMG_20160218_162646 IMG_20160218_162709

著者:Kei Okada

ROS Workshop at Municipality相模原ロボット制御用オープンソース講習会を開催しました

We held ROS Workshop at Sagamihara ROBOT SUPPORT CENTER (SIC) and Okada-Lab at Tamagawa University on 16th, 30th Jan, and 6th Feb.

SIC is an industrial training facility in the city of Sagamihara in Kanagawa prefecture, where global and local businesses are located in electronics and heavy industry. The center aims to assist the local economy by providing training and support for the robotics technologies.

We, TORK, have been holding technical workshop for opensource robotics for several dozen times at different levels (this, this, this, and this to name a few). This time we worked with SIC to give a series of dedicated workshop for the engineers and managers from the local tech companies.

The contents consists of following three parts. We also would like to thank to students from Okada-Lab@Tamagawa University for their assistance.

  • 1. ROS Workshop for beginners.
    • Learning basics of ROS system through the hands-on workshop.
      • ROS Setup
      • Recognition human hand with vision sensor(LeapMotion)
      • Recognition based motor control
  • 2. ROS Workshop for intermediates
    • Learning how to control original robot arm. This tutorial uses original manipulator using Dynamixel servo motors. Learn how to create URDF model and MoveIt Setup.
      • Robot arm modeling and visualization
      • Connecting real robot and robot on rviz
      • Control simulated robot on rviz using MoveIt!
      • Control real robot using MoveIt!
      • Recognizing AR marker and transformations
      • Wringing vision based robot motion control program
  • 3. ROS + Nextage/HIRO Dual-arm robot
    • Learning ROS and OpenRTM using HIRO robots, including how to plan motions using MoveIt!, using Kinect Depth sensor for realtime obstacle avoidance, grasping object using hand-eye cameras.

IMG_20160206_100355IMG_20160206_100714IMG_20160206_154010IMG_20160130_154328IMG_20160206_154043IMG_20160130_144350

1月16日,30日,2月6日と,三回にわたって相模原ロボット導入支援センター様および玉川大学岡田研究室にてロボット制御用オープンソース講習会を開催しました.

内容は以下の三回構成.地域の経営者,技術者の皆さんにオープンソースのロボット制御方法を学んでいただきました.玉川大学の岡田研究室の学生の皆さんに運営サポートで参加していただき大変助かりました.ご参加いただいた皆様,運営の皆様,玉川大学岡田先生と学生の皆さん,お疲れ様でした.ありがとうございました!

  • 第一回( ROSワークショップ初級編)
    • ロボットの基本ソフトである ROS の概要を基礎から紹介する.ワークショップを通して手を動かしROSの概要を知る.ROS を使ったプロジェクトを始めようと考えている初学者に適している.
      • ROS 開発環境設定
      • 認識センサ(LeapMotion)を用いた手の検出プログラム
      • 認識に基づくサーボモータ制御
  • 第二回(ROSワークショップ中級編)
    • オリジナルのロボットアームを作成して動かす場合に必要な知識の獲得を目的とする.具体的には,Dynamixel サーボモータを使用した4軸ロボット「StackIt!」により,マーカのついたパックの pick&place を通じてロボットモデル(URDF)の作成方法や MoveIt! の設定方法を学ぶ.
      • ロボットアームのモデル作成と表示
      • 実物のロボットとシミュレータ(RViz)上のロボットの接続
      • MoveIt! を使ってシミュレータ(Rviz)上のロボットを動かす
      • MoveIt! を使って本物のロボットを動かす
      • カメラによる AR マーカの認識と座標変換
      • ロボットの動作プログラムの作成
  • 第三回(ROS+HIROセミナー特別編)
    • ロボット制御用のオープンソースソフトウェア ROS と OpenRTM を用いたロボットの動作例として双腕ロボット.動作計画ツール MoveIt!,体外に設置した点群カメラを用いた障害物を考慮した動作生成や,手先カメラで認識したマーカを掴む等,既存ユーザから要望の高い認識を用いたアプリケーション例を体験する.

IMG_20160206_100355IMG_20160206_100714IMG_20160206_154010IMG_20160130_154328IMG_20160206_154043IMG_20160130_144350

著者:Yumiko Suzuki

ROS Workshop for Beginners on FebruaryROSワークショップ初級編を開催しました

We also had ROS Workshop at Yushima, Tokyo.

We made a LiveUSB with his usb-memory at the same time for reviewing the beginner’s course today.
The participant is vi user and completed today’s tasks in a short time.
( I like emacs, anyway ).

Thanks you for joining us!!

IMG_20160203_162901



今回も湯島のミーティングスペースにてROSセミナー初級編を開催しました!
弊社のLiveUSBを使って参加予定の方でしたが,帰ってから復習したいとのことでその場でご自分のUSBにisoを焼きこんで再スタート.
Ubuntuは初めてと仰っていましたが,vi使いの方でした.サクサクと課題が進みました.
お疲れ様でした!

IMG_20160203_162901

著者:Kei Okada

NEXTAGE Open in Singapore[ユーザ事例] NEXTAGE Open @ シンガポール

NEXTAGE Open (Hironx) を利用されているユーザ様事例を紹介します.
ROS をサポートしている NEXTAGE Open (カワダロボティクス社) は海外ユーザにも好評です.最近の大学ランキングでは京大,東大よりも上位で評価されている Nanyang Technological University (NTU) もその一つ.
NEXTAGE Open を使ってティーチングシステムの研究をされています.


TORK は NEXTAGE Open のオープンソース・ソフトウェアに関するサービスを行っております.


Let’s look at another usecase of NEXTAGE Open (Hironx), this time from Singapore.

ROS-capable dual-arm robot NEXTAGE Open (Kawada Robotics) has got a momentum over the world and south-east Asia isn’t an exception. At Nanyang Technological University (NTU), one of the most prominent research institutes, researchers are working on teaching system.


TORK has been providing software solution for NEXTAGE Open.

著者:Yumiko Suzuki

ROS Workshop for Beginners on JanuaryROSワークショップ初級編を開催しました


We also had ROS Workshop at Yushima, Tokyo.

The beginner course’s last topic is Moveit! installation and it’s experience.
It’s the best workshop for a beginner at ROS and Moveit!.

Thanks you for joining us!!

Screenshot from 2016-01-12 12_05_01


今回も湯島のミーティングスペースにてROSワークショップ初級編を開催しました.
初級編の最後の章はMoveit!のインストールと操作体験です.
ROSを初めて学習される方に最適なワークショップとなっております.
Linux環境が準備出来ない方もLiveUSBにてハンズオン講習を体験することができます.

2-3月のワークショップ日程も公開中です.
http://opensource-robotics.tokyo.jp/?p=1364

詳細はWebページをご覧いただくか,メールにてお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp
お申込みお問い合わせお待ちしております!

Screenshot from 2016-01-12 12_05_01

著者:Yumiko Suzuki

ROSを初めて勉強する時に

ROSを初めて勉強する時には何をしたら良いかという質問をいただくことが多くなりましたので
少しまとめてみました.

ROSWiki,チュートリアル
ROSのwikiには概要も詳細も含まれています.英語がメインですが日本語もあります.
http://wiki.ros.org/
http://wiki.ros.org/ja
また,チュートリアルを一通りやってみると,どのような要素が含まれているのかを掴み使い方を知ることが出来ます.
http://wiki.ros.org/ja/ROS/Tutorials

◆Linuxに触れるのが初めてという方は,Linuxの使い方がまとまったサイトなどを利用して
Linuxの道具の使い方を一度学んでからROSに取り掛かると,チュートリアルを実施するのがとても楽になります.
以下のページはLinuxコマンドやエディタについてとても良くまとまっていて大変おすすめです.
http://robotics.naist.jp/edu/text/?Robotics%2Flinux-command

answers.ros.org
困ったことが出てきたら,answers.ros.orgで質問を投げましょう.
http://answers.ros.org/questions/

ROS Japan User Group : 日本のROSコミュニティ
ROSはコミュニティが盛んです.日本のROSコミュニティにも是非参加してください.
http://www.ros-users.jp/

日本語本:ROSではじめるロボットプログラミング―フリーのロボット用「フレームワーク」 小倉 崇
Webの情報だけは体系がつかみにくい場合があります.本の流れに従って学習を進めることで理解しやすい人もいますのでおすすめしています.
http://www.amazon.co.jp/dp/4777519015/ref=cm_sw_r_tw_dp_H5vCwb1ZHF61C

無料配布本:詳説 ROSロボットプログラミング Kurazume Laboratory
PDFで配布されています.無料で配布されていますが大変ボリュームがあり解説も大変詳しいです.使いたい機能の章だけを参照するという使い方もできます.
http://irvs.github.io/rosbook_jp/

ROSワークショップ
もちろん弊社のROSワークショップ初級編もお薦めです.ROSを使ってハードを動かすところまで体験できます.
ROSワークショップ初級編

ROSを初めて勉強する方や途中であやふやになってしまった方は,上記リンクを参考にROSを体験してみてはいかがでしょうか.

2016年も引き続きワークショップを開催いたします.お申込みお待ちしております!
FullSizeRender

著者:Yumiko Suzuki

ROS Workshop Schedule, from January to March 20162016年1月-3月のROSワークショップ日程


Here are the schedule of our ROS workshop series during the first three months of 2016!

Jan. 08 Fri 13:30- Introductory
Jan. 22 Fri 13:30- Introductory
Feb. 18 Thu 10:00- Intermediate
Feb. 25 Fri 13:30- Introductory
Mar. 04 Fri 13:30- Introductory
Mar. 17 Thu 10:00- Intermediate

Venue: Yushima, Tokyo

Inquiries: info[at]opensource-robotics.tokyo.jp

IMG_20151112_182120



以下日程でROSワークショップを行います.

1月08日(金)13:30~ ROSワークショップ初級編
1月22日(金)13:30~ ROSワークショップ初級編
2月18日(木)10:00~ ROSワークショップ中級・マニピュレーション編
2月25日(木)13:30~ ROSワークショップ初級編
3月04日(金)13:30~ ROSワークショップ初級編
3月17日(木)10:00~ ROSワークショップ中級・マニピュレーション編

場所については湯島のミーティングスペースでの実施を予定しています.

お申込みは以下より詳細をご確認の上,ページ内のお申込みリンクよりエントリをお願い致します.

ROSワークショップ初級編
ROSワークショップ中級・マニピュレーション編

日程の調整,その他ご相談,企業内ワークショップも承っております.お気軽にご相談ください.
info[at]opensource-robotics.tokyo.jp

IMG_20151112_182120

著者:Kei Okada

[ユーザ事例] NEXTAGE Open Xtion センサヘッドNEXTAGE Open Xtion sensor head


NEXTAGE Open (Hironx) を利用されているユーザ様事例を紹介します.
玉川大学岡田浩之研究室様のロボットは,頭部のカメラを Asus 社の Xtion PRO LIVE (RGB-Dセンサ) に換装しポイントクラウド処理を実現されています.このための launch ファイルも公開済み.カメラを覆う頭部のカバーは NEXTAGE Open / Hironx の Xtion ユーザ向けに私達 TORK が製作・販売しています.
NEXTAGE Open で実世界認識処理に興味をお持ちの方は是非お試し下さい.


Another usecase of NEXTAGE Open (Hironx) is up!
Hironx at Hiroyuki Okada’s lab at Tamagawa University in Japan exchanged her/his head with the custom cover that is tailor-made for Asus’ Xtion PRO LIVE (RGB-D sensor) for point cloud application. ROS launch file configured for Hironx robot is opensourced as well.
Enjoy the real world perception application with NEXTAGE Open / Hironx, and if you’re interested in this custom head mount where Xtion camera nicely resides in, please contact us.

2015-12-05 14.04.54 d4b1f154-9b5b-11e5-9cd1-94e9b30672cd


(頭部の中に組み込まれているのが RGB-D センサ,その上に付いているのはマイクです.マイクは岡田研究室の特別仕様品)


# RGB-D sensor is embedded inside of the head-mount and a custom microphone sits on its top.

著者:Yumiko Suzuki

ROS Workshop for Intermediate Manipulation ROSワークショップ中級・マニピュレーション編を開催しました


We also had ROS Workshop for Intermediate Manipulation at Yushima, Tokyo.

The participant wants to know how to use MoveIt! with a new robot arm. It’s the best workshop for a beginner at MoveIt!.
He takes part a workshop using our LiveUSB. You can experience ROS workshop by the LiveUSB without installation of Ubuntu on your machine.

Thanks you for joining us!!

IMG_20151217_131128


今回も湯島のミーティングスペースにて,ROSワークショップ中級・マニピュレーション編を開催しました.
Moveit!の使い方を習得したいとのことで今回のワークショップへご参加いただきました.
中級・マニピュレーション編はロボットアームを作成して動かす際にMoveIt!を活用しており,初めてMoveIt! を使う方の導入としても最適です.

また,マシン環境を変更出来ない場合でも,弊社のLiveUSBを使ってワークショップを体験することができます.
詳細はWebページをご覧いただくか,メールにてお問い合わせ下さい.
info[at]opensource-robotics.tokyo.jp

長時間の講習お疲れ様でした.ありがとうございました.

IMG_20151217_131128

著者:Isaac Saito

Update on Rethink Video Challenge 2015Rethink Video Challenge 2015 で準決勝進出


Rethink Robotics 社による双腕ロボット Baxter を用いた動画コンテスト rethink robotics video challenge が行われました.Baxter の活用方法を動画で提案し,審査の結果1位となった提案者にはロボット一台が無償提供されるというものです.

TORK でも Baxter を題材としてワークショップを開催してきました (ROS 基礎・産業双腕 Baxter 編) が,安全性,ROS を使ったプログラミングのしやすさ等とても良いロボットであると思います.今年9月には一般向けワークショップで80名様の前で無償開催しました.

上述のコンテストには TORK も参加しました.惜しくも準決勝敗退となりましたが,決勝進出チームの動画を見ると,バラエティ豊かですね..これまで研究用途は勿論のこと,学部生や高校生の学習,コミュニティ活動にも提案が出ています.動画コンテンツとしての作り込みも楽しいですし,是非上記リンクからご覧になってみて下さい.

Baxter や ROS の活用にご興味おありであれば,当社のワークショップ (日本バイナリー株式会社様協賛) にご参加下さい.


TORK advanced to the semi-final round at rethink robotics video challenge 2015.

Baxter is a robot with novice ideas implemented and we’re a big fan of its versatility! Because we really want to see more Baxter users in Japan, we’ve been holding workshop using Baxter since 2014. Also, we held a voluntary workshop with 80 participants a few months ago at RSJ conference in Tokyo to reach out to the general public.

This time we participated the challenge, advanced to the semi-final round (hooray!) without making to the final though.
Looking at the finalists submission, we can see a variety of ideas ranging from research development, undergrad coursework and to even STEM education and community activities. And the quality of videos! I suggest you to watch them, now. And when you get interested in the robot or utilizing ROS or in any way, we’re holding workshop using Baxter so please don’t hesitate to contact us.

著者:Isaac Saito

Celebrating ROS for turning 8-year old at TORKROS 8周年,TORK も貢献しました


OSRF made a blog post to celebrate ROS turning 8-year!


ROS が生まれてから11月で8周年ということで,メッセージとモンタージュビデオが公開されました


They also compiled a “montage video” with video pieces from the community of “ROS-based” robots. Last time montage was made was in 2012 upon 5-year mark. Looking back at it together, we’ve added a bunch of limb-based, flying, and outdoor robots in environments with greater severity.

Since the launch in 2013, we, TORK, has been centering around contribution cycle to ROS. In our first appearance in ROS montage, robots we support such as NEXTAGE Open and Denso ROS packages are covered.


ROS で動作するロボットを集めたモンタージュビデオが作成されるのは,5周年時だった2012年以来です.印象ですが,移動台車ロボットが多かった5周年時にくらべ,アーム型,空飛ぶ型,屋外も厭わない型など,ROS の用途が一層増えていそうですね.

TORK は2013年発足以来 ROS のヘビーコントリビュータとして活動してきましたが,ROS モンタージュビデオには今回が初の登場となります.NEXTAGE Open サポートDenso ROS サポートの成果が登場しています.

著者:Isaac Saito

Impedance Control using Kawada’s Hironx Dual-arm Robot[ユーザ事例] 双腕ロボットでの Impedance 制御


Here’s an advanced usecase of NEXTAGE Open (Hironx) robot.
A robot at Manipulation Research Group at AIST (Japan) is equipped with JR3 6-axis force sensor at the tip of the arms. Using the external force measurement from the sensor, impedance control is achieved to restrain the pose of the robot’s end-effector.

Interested users can take a look at this wiki page for how to configure your driver. Technically you can use other types of force sensors.

Need customization? Please contact us.


NEXTAGE Open (Hironx) を利用されているユーザ様事例を紹介します.
産業技術総合研究所マニピュレーション研究グループ様のロボットは,手先にJR3社製の6軸力センサ を取り付けており,センサが計測する外力に応じて手先の位置姿勢を制御する Impedance 制御を実現されています.この Impedance制御の設定,制御方法はチュートリアルとして公開していますので,力センサ付きの NEXTAGE Open をお持ちの方は是非お試し下さい.



著者:Yumiko Suzuki

ROS Workshop Schedule, Dec. 20152015年12月のワークショップ日程


Here are the schedule of our ROS workshop series for the last month of 2015!

Dec 11 Fri 13:30- Introductory
Dec 17 Thu 10:00- Intermediate

Venue: Yushima, Tokyo

Inquiries: info[at]opensource-robotics.tokyo.jp

IMG_20151112_182120



以下日程でROSワークショップを行います.

12月11日(金)13:30~ ROSワークショップ初級編
12月17日(木)10:00~ ROSワークショップ中級・マニピュレーション編

場所については湯島のミーティングスペースでの実施を予定しています.

お申込みは以下より詳細をご確認の上,ページ内のお申込みリンクよりエントリをお願い致します.

ROSワークショップ初級編
ROSワークショップ中級・マニピュレーション編

その他ご相談,企業内ワークショップも承っております.お気軽にご相談ください.
info[at]opensource-robotics.tokyo.jp

IMG_20151112_182120

著者:Kei Okada

Pepper Robot at Beaujolais Nouveau PartyKOTO-BA交流会(ボジョレーの会)でPepperロボットを紹介しました


Following mid November’s winery tradition is not just a human’s thing – Robots do too!

At “Shared Office KOTO-BA” where our headquater is located, Beaujolais Nouveau Party has been annually held, and this year we made an introductory appearance together with Softbank’s Pepper Robot.

Pepper can be operated via ROS, same as NEXTAGE Open, Baxter and numerous other robots.

Atelier Aldebaran Akihabara kindly offered the robot, which is located in walking distance from our office. Many thanks to Mr Kawada from SoftBank Inc.

The picture below is how the robot saw the party (taken from a visualizer software RViz. Apparently the robot’s sight was much distorted — that’s what a party is!

Screenshot from 2015-11-20 19_46_54

 


私達のオフィスがある湯島のシェアオフィスKOTO-BAでボジョレーヌーボ交流会があり,TORKとPepperロボットの紹介を行いました.

実はPepperもNextageOpenやBaxterと同じくROSで動くロボットなのです.

ロボットはご近所さんであるアトリエAldebaranからキャリーで直接運んできていただきました.
ソフトバンク ロボティクス株式会社 河田様,ご協力ありがとうございました!

以下はロボットから見た交流会の様子.ロボットもちゃんと楽しめたでしょうか.

Screenshot from 2015-11-20 19_46_54

 

著者:Isaac Saito

Denso robot in ROS-Industrial 3-year montageROS-Industrial 3周年ビデオに当社メンテナンスのデンソー様ロボットのパッケージが登場

ROS を産業用自動化に活用する取組みである ROS-Industrial プロジェクトの3周年ビデオに,TORK が関わるデンソー様のロボットの ROS パッケージも紹介頂きました.

#動画登場は一瞬です.お見逃しなく!

ROS-Industrial は日経ロボティクス誌10月号でも紹介させて頂いていますが,ROS に産業用途の機能を追加したフレームワークや共用可能なツールを開発・公開しています.今回のデンソー様の例では,直交座標系でのグラフィカルなティーチングを可能にするツール Cartesian Planner を利用し,プログラミング言語不要での動作計画の可能性を示しました.

当社もメンテナンスに積極的に協力しているデンソー ROS パッケージはオープンソースで公開中で,ユーザ様からの貢献もいただきつつ継続的に改良されています.こちらからご覧になりぜひ試用してみて下さい.


Denso ROS package, an industrial robot software we’ve been actively involved in maintenance, appears in 3-year montage video of ROS-Industrial project.

As we’ve post an introductory article in Nikkei Robotics magazine in Japan, ROS-Industrial project develops framework and tools that utilizes ROS for automation purpose and make them publicly available. With Denso package, we’ve utilized Cartesian Planner tool that allows users to program the robot’s movement in cartesian space in a graphical manner (without involving computer programming).

Denso ROS package has been actively maintained with contributions from user’s land. Please try from here and let us hear about your experience with it.

著者:Isaac Saito

2015年11月 企業向け ROS Workshop 開催決定ROS Workshop for enterprises in November, 2015

企業向け ROS ワークショップシリーズ,2015年11月の急遽開催決定しました.以下の各ワークショップのページ内にあるカレンダーを参照して日程を確認し,同ページ内にあるリンクを使ってお申込を行って下さるようお願い致します.

“ワークショップ” とは別に,理論や現状などを知りたいという方々向けの所謂”セミナー”の開催も検討しています.ご意見頂ければ幸いです.
info[a-t]opensource-robotics.tokyo.jp


ROS hands-on workshop courses will be held in November 2015 by TORK in Tokyo, Japan. Any inquiry can be posted at info[a-t]opensource-robotics.tokyo.jp

著者:Isaac Saito

Laser 関連ツールを ROS に再リリースLaser scan tools for ROS rejuvenated (since Fuerte)


Laser センサデータを利用したツール群 scan_tools を ROS Indigo, Jade にリリースしました.laser_scan_matcherpolar_scan_matcher パッケージを利用すると,Laser データのみから現在位置を推定することができ,また単独で Odometry として利用することも可能です.

これは TORK が作成したわけではなく,数年前からソースコードは存在していたものを,今回我々が整理してバイナリ化しました.
参考:ROS パッケージを作った Ivan Dryanovski の公開当時の告知

デモ動画


We just released ROS tools for handling laser scan data “scan_tools” into ROS Indigo, Jade. laser_scan_matcher or polar_scan_matcher packages enable 2D pose estimation solely based on the laser scan input. It can be also used as odometry without relying on other sensor data correction. On Ubuntu linux you can install via apt command.

Ok, actually, we didn’t build anything. We just sorted out and “re-published” the source code so that people can install by a single command. Its source code was made by CCNY Robotics Lab.
Ref. Announcement in 2010 by Ivan Dryanovski at ros-users forum

Demo video:



Ubuntu で ROS を使うと,多くのパッケージのインストールは,スマートフォンでのアプリのインストールがボタン一つで済むのと同じように,コマンド一回の実行だけでインストール完了し,即使えるようになります.ROS Indigo では今日現在 2,034 個のパッケージがコマンド一回でダウンロード・インストールできるようになっています (Build Status ページ参照).これを可能にするのには幾つもの要素が絡んでいます:

  • Ubuntu が apt という使いやすいパッケージ管理システムを持っているから
  • ROS の管理元 OSRF が apt でパッケージをインストールできるための仕組みを ROS 向けに構築し,外部の有志メンバーを交えほぼ24時間体制で維持しているから
  • 各パッケージの作成者/管理者がルールに従いリリースしているから

特に各パッケージの管理者の貢献は見逃せません.今日時点で約200人の管理者が継続的なパッケージのリリースを行っており,上記のように膨大な数のパッケージが利用可能になっています.

ただ,数年も経つと開発者・管理者が他のプロジェクトに移るなどにより,メンテナンスが放置されるパッケージも出てくるのは仕方ないことです (現在使ってないのにメンテを続けるアツいメンテナも沢山いるので念の為!).しかしながら多くの場合では,少し手を入れてやることで最新バージョンの ROS プラットフォームとの整合をすぐに取ることができます.上記の scan_tools がまさにそうです.今後も TORK は埋もれていたソフトウェアが,また再び世界中の多くのユーザに使われるようになるためのお手伝いをしていきます.


(11/18/2015 更新) この度 ROS Indigo, Jade のパッケージリストが更新され,上記以外にも,これまで放っておかれた以下のパッケージ群が,今回我々が手伝わせて頂くことで入手可能になったようです.


Using Ubuntu linux, you have so many ROS packages readily available just 1-command away, much like apps on your smart phones. As of today on ROS Indigo 2,034 packages are awaiting in the cloud (If you’re curious how the sea of cloud actually looks like, sneak peak from Build Status). To make this wonder happen, there are a few things:

  • apt package management system on Ubuntu
  • OSRF, management team of ROS maintains the infrastructure that builds, tests, and distributes ROS packages that the developers of each package submit. Involving volunteers, it’s eye-maintained almost 24/7
  • Each package’s developers and maintainers are diligently conforming to the rule and vigorously submitting the updates

What makes ROS as sized is this many package maintainers; today more than 200 persons have made a release.

A dilemma of a huge project to last long, like ROS with longer than 6 years, may be that some maintainers may go away as they move on to new projects (while some remain although they are not actively using the packages they take care of!). But most of the times with a minimal care, the packages can be revitalized and made compatible with the latest ROS platform. This is what TORK did for the aforementioned scan_tools package suite and we’ll continue this kind of effort to help opensource community shine even more.


(Update 11/18/2015) The list of available packages in ROS Indigo, Jade is updated today, and some packages other than aforementioned scan_tools that were almost abandoned for newer ROS versions are now back available. TORK was happilly involved in this process.

著者:Isaac Saito

[Info wanted] LabView – ROSLabView と ROS の連携例


It’s been awhile since I last time heard of National Instruments’ LabView and ROS integration. Looks like there’s a good progress made by Tufts — ROSforLabview enables LabView to connect via TCP to ROS master that runs on some other host than where LabView runs. It’s also referenced in National Instruments’ WEB site. A dual-arm industrial robot Baxter is demonstrated.

Whether ROS run on Microsoft Windows has been one of the most common questions about ROS among industry users. ROSforLabview seems like a good option for those.


計測機器や手軽なプログラミングツールとして米・National Instruments 社の LabView をお使いの方も多いのではないかと思います.LabView と ROS の連携について少し調べた所,次のような取組が行われているようです:

  • 米タフツ大学がメンテナンスする ROSforLabview は,どこかで起動している ros master に TCP 接続さえできれば,Win マシン上の LabView と連携できるようです.また LabView 開発・販売元の National Instruments 社 WEB サイトにも事例として載っており,ROS で動作する双腕ロボット Baxter に対し LabView から指示を与える動画が観られます.
  • `labview-ros` パッケージ:カナダのコンサル企業が作成したもの.2013年以降メンテが止まっており,最新の ROS Indigo とは連携が難しい様子です

Baxter 連携プログラムは,あまり告知されていないので存じませんでしたが,謳われている通り動画のとおり Windows (/Mac) 上では LabView のみ動作させ,ROS はどこか別なホストで挙動していても接続できる挙動をするのであれば有用そうですね.

日本にも LabView と ROS を連携しておられるユーザ様はいらっしゃるのでしょうか?

著者:Isaac Saito

Update on Nikkei Robotics monthly magazine日経ロボティクス誌の ROS 連載,第5回まで終了しました


As we made a notice before, Isaac has been working with Nikkei (a leading business news distributor in Japan that recently acquired Financial Times) on article series about ROS on Nikkei Robotics monthly magazine. Lately some customers even take the magazine out from the bag and ask about the articles. What a bliss! We’re glad to see more development is happening in the industry and if we are becoming the integral part of it by providing assistance about opensource robotics technology.

The back number of the magazines is available through their web site.

Article titles (English translation by TORK):

  • Ep.1 ROS: de facto standard tool for robotics software development, Beyond the research labs further on industrial
  • Ep.2 Using ROS on Fetch; SLAM, IK are off the shelf
  • Ep.3 ROS-I: ROS’ industrial extension. Community and application. Universal pendant to be developed
    • Activities in North American and European consortia. Type of membership and benefit
    • Ongoing FTPs and how it works
    • industrial_core framework overview
    • Available robot drivers
    • Possible contribution from industrial players in Asian region
  • Ep.4 ROS on ARM: Going Beyond x86 to Embedded Systems Backed Up By Qualcomm
  • Ep.5 ROS2.0: Communication Infrastructure Basis on DDS for Real-time Capability and Stability

(Update November 30, 2015) Episode 5 is out!


以前告知しました通り,日経ロボティクス誌で “ROS とは何か” という連載を理事斉藤がさせて頂いています.最近は打ち合わせ時にお客様が同誌を持って来られて,記事で触れた箇所についてさらに質問頂くようなことも出てまいりました.ROS を使ってシステム構築がより進むための情報が少しでもご提供できていれば幸いです.

なお同誌は年間購読のみ可能のようですが,バックナンバーであれば単月で入手可能となったようで,日経 BP 社 WEB サイトからお買い求めできるようです.

ROS の連載タイトル:

  • 第1回 ロボット用ソフトのデファクトになったROS 研究用から脱し,産業用ロボにも進出
  • 第2回 Fetch 社のロボットで ROS を試す SLAM や逆運動学も手軽に利用可能
  • 第3回 ROS を産業用ロボット向けに拡張した「ROS-I」 ベンダー共通の汎用ティーチングペンダントも開発
  • 第4回 ARM 版の ROS は Qualcomm 社が強力に推進 x86 から脱却し,組み込み分野に広がる契機に
  • 第5回 ROS の次世代版は通信基盤がより頑健な DDS に 通信のリアルタイム性や信頼性を向上

(Update November 30, 2015) 第5回が発刊されました!

著者:Isaac Saito

Thank you for coming to our ROS-Baxter Workshop at RSJ 2015 annual meetingROS-Baxter ワークショップご来場ありがとうございました (RSJ 学術講演会2015)

As we’ve made a small announcement, ROS-Baxter workshop at RSJ annual meeting 2015 took place. We failed to anticipate the participation by 70+ busy personnels but thank you very much for the interest and the attendance!

For those who requested simulation package but didn’t provide email address, please contact info[a-t]opensource-robotics.tokyo.jp.

Some public conversation channels:


日本ロボット学会学術講演会2015内で開催したオープンフォーラムにお越しいただいた方々には御礼申し上げます.当初定員を15としていたのが,最終的に用意した70脚が埋まる盛況を頂きましたため,一部予定したプログラムが実施できず期待していた方にはご不便をおかけしましたが,おかげ様で日本の学術界における ROS,Baxter への関心の高さを窺い知ることが出来ました.

なお,会の中でお伝えしましたシミュレータ配布に関し,希望を頂きながら Email アドレスを記載されてない方々が散見されますので,info[a-t]opensource-robotics.tokyo.jp までご連絡下さい.

その他,ご紹介したオープンソースコミュニティの情報を次の通りお伝えいたします:

 

 

baxter-seminar-1

 

FullSizeRender (2)

 

著者:Isaac Saito

TORK at Toyota HSR (Personal Robot) Hackathon 2015TORK は今年も HSR ハッカソンをサポートします!


It’s been almost an year since TORK worked with Toyota Motors Corporation to co-host their inaugural hackathon for their HSR personal robot. We’re pleased to work with the company and the new version of their HSR robot again from August 31th through Septermber 2th at Megaweb show room in Tokyo (link). Selected participants already have an access to the robot’s Gazebo simulation packages and they should be getting ready, so are we!

The competition sight is right in the middle of Toyota’s showroom in Odaiba water front, and will be open to public. Come see the moment!


昨年度大好評をえた第一回ハッカソンに引き続き8月31日から9月2日までお台場の Megaweb で開催されるトヨタ自動車様の「HSR ハッカソン2015」をお手伝いさせて頂いています.すでに参加チームには Gazebo シミュレータが事前配布されているということで, 各チームの準備状況が気になりますね.TORK チームも連日使い込んでいます.またロボットは昨年度のものからバージョンアップした新型 HSR.

なお当日会場は一般公開しているのでご都合宜しい方は応援に来られてはいかがでしょうか.

楽しみです!

HSR on Gazebo simulator and ROS RViz visualizer.

HSR on Gazebo simulator and ROS RViz visualizer.

著者:Isaac Saito

ROS-Baxter workshop at 33-rd Annual Conference of the RSJ 2015 (Sep 4)2015年ロボット学会学術講演会内で双腕ロボットのワークショップ開催 (9月4日)

Workshop details

  • Purpose: Brief introductory course for the Rethink Robotics’s Baxter Research Robot (for research), which came out in 2012 targeting mid-small class businesses while achieving low-price and revolutionary safety. Participants will experience the state-of-the-art mechanism and operational interface of the robot, as well as the high-end features such as motion planning and perception based on software programming gateway called ROS, a defacto standard framework for research-oriented robots.
  • Title: ROS Basic Workshop w/industrial dual-arm Baxter robot
  • Host: TORK (Tokyo Opensource Robotics Kyokai Association)
  • Assent: Nihon Binary Co., Ltd. (official supplier of this robot in Japan)
  • Date: See “Schedule” section at the bottom of this page
  • Venue: 1st building 1F, Centennial hall at Tokyo Denki University
  • Fee: Free
  • Workshop language: Japanese (sorry! But if there’s an interest for English, please contact us. We’ve managed sessions where non-Japanese speakers were present)
  • Curriculum
    • Introduction to Baxter robot & ROS
    • Motion planning by MoveIt!
    • Perception and action planning
    • Gazebo simulation usage with Baxter
  • Items to bring
    • Laptop computer
      • NOT required. Limited number of desktop machines are available. In fact pair-work if you’re coming with your colleague is recommended for better learning.
      • Intel i5 or above, RAM 4G or above, storage 7G or above, internet connectivity (ethernet or wifi)
        • We ask you to disable any intra-organizational network setting (e.g. Proxy) and make sure your machine can connect to the internet without them. These things are known to cause issues that might end up affect the workshop progress.
      • Ubuntu 14.04・ROS Indigo installed. See installation tutorial. (Hydro or any other ROS distro is not recommended in our workshop.

Resource

  • We, TORK, offers workshop for ROS, which is a crucial part of utilizing BRR. Go to this page for more info.

当社はこれまでオープンソースソフトウェアの ROS を用いてロボットを扱いたい,という様々な需要に応えるべく,複数のタイプのワークショップを開催してきました.産業用双腕ロボット Baxter を用いたワークショップは,日本代理店の日本バイナリー社様のご協賛の下,同社オフィスでこれまで行ってまいりましたが,今回は9月の日本ロボット学会学術講演会内で開催する運びとなりました.

学会サイト内でのお知らせページ

今回は,学会内ということもあり,機能性のご紹介を差し上げる軽めの場となっております.
Baxter の日本公式販売代理店の日本バイナリー様ならびに,製造元である米・Rethink Robotics 社様のご厚意により,通常ロボットを購入しないと入手できない Baxter Research Robot のシミュレータの入手権を,参加頂いた方にはお渡しします.

事前申込不要 (参加者が多い場合の不都合はご容赦下さい)

  • 日時:9/4/2015 (金) 12:30-14:30
  • 場所東京電機大学 東京千住キャンパス1号館1階100周年ホール(中) (ロボット学会学術講演会内)
  • 協賛:日本バイナリー株式会社
  • 費用:無償
  • 対象
    • Baxter Robot の特徴について知りたい方
    • ROS を用いた Baxter Research Robot の可能性にご興味がおありの方
    • Baxter Research Robot ユーザ
  • 内容 (予定)
    • Baxter ロボット/ROS 概要の紹介
    • ロボットプログラミング例・ハンズオン
      1. MoveIt! 動作計画プログラミング
      2. 視覚認識と行動生成プログラミング
      3. Gazebo による Baxter シミュレータ利用法
    • Baxter Research Robot ユーザ様によるライト・トーク (あれば)
  • ご持参頂きたい物
    • 特になし
    • Ubuntu 14.04 + ROS Indigo インストール済のコンピュータご持参の方は,Baxter に接続して動作を体験頂けます (virtual machine は一部のツールの動作が不安定のため推奨しません)

Baxter_Seminar_Network

お問合せ:info[a t]opensource-robotics.tokyo.jp

当社が行っている通常版 ROS-Baxter のワークショップページもご参考までにご覧下さい.

著者:Kei Okada

NEXTAGE OPEN software services progressNEXTAGE OPEN ソフトウェア向けサービスの進展


With TORK turning 2-year mark on August 8th, 2015, we give an update about the NEXTAGE OPEN’s ROS-based opensource software support, which is one of our first business services.
We’ve got 74 support requests so far from some of the support service users. Each request is answered, or fixed by us often based on the collaboration with the opensource community developers.

Thank you all who have given us a support especially Kawada Industries and Kawada Robotics. Your understanding and generosity nourishes the opensource robotics.


(Photo: at 4th ROS Japan User Group meetup. Since NEXTAGE OPEN software comes with ROS-based simulation as well, whoever interested can give it a try, bring about meetup sessions like this using it.



2015年8月8日,おかげさまで TORK は設立2年を迎えることができました.これからも,お客様のご要望に応え,産業・学術界でのオープンソースロボティクスの進展に寄与できるよう,より一層努力して参ります.

設立以来実施してきた事業の一つである NEXTAGE OPEN ロボットの ROS 版オープンソースソフトウェアのインストールサービスも,順調にサービスをご提供してきております.製造元である川田工業様・カワダロボティクス様をはじめ,NEXTAGE OEPN / Hironx のオープンソース環境の維持と発展にご協力頂いている方々に感謝します.

また,ソフトウェア・サポートサービスを購入頂いたお客様方からは,開始した2014年1月以降,合計で74件のサポートリクエストを頂きました.当社はご質問にお応えするほか,時にはオープンソース・コミュニティと協力してソフトウェアの不具合修復/機能追加を行うなどして,お客様の開発活動をご支援してまいりました.

ROS が使える双腕協働ロボット NEXTAGE OPEN の今後も引き続きよろしくお願いいたします.


(写真は第四回 ROS 勉強会より.実機の要らないシミュレーションを提供していることもあり,勉強会参加者等こういったロボットプログラミング,ROS 等に興味をお持ちの方にも気軽に使って頂けるようになっています)

著者:Isaac Saito

TORK on newly published Nikkei Robotics magazines日経ロボティクス誌で ROS 連載させて頂いています


Nikkei BP, a leading business newspaper and magazine media company, celebrated its inaugural publishment of monthly magazine “Nikkei Robotics” in July 2015. Our co-founder Isaac contributes series of articles about ROS (Robot Operating System).

With a rising need and interest toward robotics solution in global economy, we’ve seen recently the amount of technical information about opensource robotics in Japanese has increased a great bit. With the magazine articles this time, we aim to inrtoduce the status quo of what’s going on in opensource robotics and how big the impact the opensource technology is giving to the robotics development, especially in the large scale projects, so that corporate readers can hopefully get some idea of how they can integrate opensource into their robotics product development.

Although the article is only in Japanese as far as we know, we appreciate any feedback, requests about this (info[a–t]opensource-robotics.tokyo.jp). You can make a purchase request from Nikkei BP’s official web site from the link above.

日経 BP 社より今月創刊された月刊誌”日経ロボティクス“の中で,理事・斉藤が ROS (Robot Operating System) を紹介する記事を書かせて頂いています.
昨今のロボットブームのおかげもあってか,オープンソースロボティクスの日本語の情報,とりわけまず使ってみるといった技術情報が飛躍的に充実したように感じます.今回の記事では,技術的な話も抑えつつ,日本・世界の企業や大学等様々な場所で起きているオープンソースロボティクス活動のインパクトを紹介し,企業内プロジェクトへのオープンソースロボティクス採用検討のために有益となる情報を提供することを目指しています.
ご感想や今後の記事への御要望等をお聞かせ願えれば幸いです (info[a–t]opensource-robotics.tokyo.jp).購入ご希望等日経ロボティクス誌に関するお問合せは上記の同誌リンクから行って下さるようお願い致します.

著者:Isaac Saito

TORK speaks about opensource robotics research and business at RSJ Seminar (09/11/2015)講演のお知らせ;ロボット工学セミナー第94回 ロボット用オープンソースソフトウェアとその実用例 (2015/09/11)

Two of the board members at TORK will speak at a day-long seminar entitled “Opensource Software in Robotics, and its real- world examples” hosted by RSJ (Robotics Society of Japan) in September, 2015.

The following is some of the info cited from its official web page (where registration can be made as well). Reportedly watching the talks online-realtime will be possible on a request-basis.

  • Seminar Language: Japanese
  • Date: 9/11/2015 F 9:50-16:40 (entrance 9:20)
  • Remote: Paid webinar style will be available. Registration opens in early August.
  • Venue: Chuo University, Korakuen campus Bld.5 Rm.5134 (1-13-27 Kasuga, Bunkyo-ku, Tokyo)
  • Speakers (translation by TORK)
    • #1 10:00-11:00 Kei Okada (U. Tokyo) Current and the Future of Opensource Robotics Software in Research
    • #2 11:10-12:10 Yoshitaka Hara (CIT) ROS-based autonomous robot for outdoor pedestrian space
    • #3 13:10-14:10 Koichi Nagashima (Kawada Robotics Inc.) Humanoid research robot
    • #4 14:20-15:20 Isaac I.Y. Saito (TORK) Facilitation of Opensource Robotics Software in Industry, and its future
    • #5 15:30-16:30 Minoru Yamauchi (Toyota Motors Corporation) Toyota Partner Robot

We haven’t found English information for this session yet. If interested, we (TORK) might be able to provide assistance, so drop in a line at info[a-t]opensource-robotics.tokyo.jp


(社) 日本ロボット学会主催の標題のセミナーに,当協会理事の東京大学・岡田准教授と,斉藤が登壇します.以下,セミナー WEB サイトから一部転載させて頂きます.事前申込により遠隔受講も可能とのことです.

  • 開催日:2015年9月11日(金)9:50~16:40(開場9:20)
  • 遠隔セミナー:本セミナーの有料ネット配信を行います.参加者募集開始は8月上旬の予定です.
  • 開催地:中央大学 後楽園キャンパス 5号館5134室 (東京都文京区春日1-13-27)
  • 口上:近年ロボット向けオープンソースソフトウェアの利用が拡大しつつあり,代表的なものに海外にて急速にユーザを増やしているROS などがあります.本セミナーでは,ロボット向けオープンソースソフトウェアの開発やその応用において第一線で活用されている方々を講師にお招きし,ソフトウエアの概要から製品に活用する上での具体的な運用方法まで実例を交えてわかりやすく解説いただきます.
  • 講演者 (一部)
    • 10:00-11:00 第1話 ロボット研究用オープンソースソフトウェアの動向と今後の可能性 東京大学 岡田慧
    • 11:10-12:10 第2話 ROSの活用による屋外の歩行者空間に適応した自律移動ロボットの開発 千葉工業大学 原 祥尭
    • 13:10-14:10 第3話 ヒト型ロボット研究プラットフォームの開発 カワダロボティクス(株) 長嶋 功一
    • 14:20-15:20 第4話 ロボット開発用オープンソースソフトウェアの企業活用支援と今後の展望 (一社) 東京オープンソースロボティクス協会 齋藤功
    • 15:30-16:30 第5話 トヨタパートナーロボットの取り組み トヨタ自動車(株) 山内 実

お申込は日本ロボット学会の WEB サイトから可能となっています (リンク).


Opensource を積極的に活用してビジネスに繋げている・成果を挙げている他の講演者様をはじめとして,交流できることを楽しみにしております.


著者:Isaac Saito

ROS support period until 20202020年までの ROS のバージョンごとのサポート期間

ROS の利用を検討されている企業の方が一様に気にされるのが,サポート期間です.

というのも,つい最近まで ROS は1年間に2度も新バージョンをリリースしていました.開発者からすると,安定性の不透明な新バージョンにしょっちゅう更新するわけにはいかない,というのが不安の第一の理由だと思います.また,遅ればせながらやっとバージョンを更新して慣れてきたばかりなのにもう次のバージョンが出て,世間の話題はすっかり新バージョンに移ってしまった,という精神的フラストレーションは意外に無視できないのではないでしょうか.このような不安は企業/大学その他,どこの方にも共通ですね.

これら多くの声を元に,2014年の ROS Indigo からは LTS (Long Term Support) という考えが導入されました.

  1. ROS 初の LTS である Indigo は,2019年までサポートされることが発表されています (Ubuntu 14.04 のサポート期間に準ずる)
  2. 次の ROS LTS は2016年リリース予定の “Kinetic Kame” (“運動的な亀”?まあ,素直にキネティック亀と呼びましょうか) で,同様に2021年まで.Ubuntu は16.04中心で,14.04は未対応と思われる
  3. その次は2018年の M-Turtle (名称未定) が2023年までサポートされると予想されます

では,Indigo が2019年までサポートされるのであれば,今から4年間も同一の Ubuntu・ROS バージョンを使い続けられるのかというと,実際は時が経つにつれて機能性等不満が出てくる場合もあると思われるため,用途によって様子見になるのではないでしょうか.特に,LTS は2年間隔でリリースされることになっているようなので,Indigo の次の LTS であるキネティック亀に,2019年を待たずに乗り換えるというケースは考えられます.

それにしても,日本のロボティクス的には大きなマイルストーンでありそうな2020年には,キネ亀あるいは M-Turtle のいづれかを使うことになるのかも知れないですね.
M で始まるカメといえば,国民的アイドルの緑色のお方でしょうか!

参照元:http://img.fukaebashi.kansai-reptile-pro.com/20120925_213732.jpg

“ROS Midorigame Turtle” 実現が待ち遠しいですね!

参考:ROS リリースタイムライン http://wiki.ros.org/Distributions/Timeline


我々がメンテナンスに関わっている NEXTAGE OPEN のオープンソースソフトは,これに合わせて,今後 Indigo を LTS としてはどうか,という議論になっています.ご意見を是非メイリングリスト等でお聞かせ下さい.


What industry users have asked us about ROS particularly is how long certain ROS version (called “distro”) will be supported.

That’s no wonder because ROS used to make 2 releases within an year until recently. Apparently developers worry the unstability that new version of any kind of software induces initially. In addition, there’s an implicit anxiety where you for example finally updated to the latest version but then even newer version is just released and you’re already out of sync from the community. This is common for wherever you work, industry, academia or hobby etc.

Based on the demand ROS implemented LTS (Long Term Support) concept starting from Indigo in 2014. The future LTS period will be:

  1. Indigo, ROS’ inaugural LTS release, will be supported until 2019
  2. Next up is “Kinetic Kame” that’s coming in 2016 will be expected to be alive until 2021 (no official announcement about this period tactics thus far though)
  3. ROS M-Turtle will be released in 2018 and maintained until 2023

Okay, so we can keep using Indigo until 2019. Sounds like still a long way to go. But in actuality will everyone be happy to be on board on the same OS and ROS for another 4 years, is questionable. In fact ROS LTS is 2-year interval, so switching to the next LTS while the oldest valid LTS is still supported will probably an option depending on your needs.

Well, anyways, there seems to be a huge milestone on 2020 for roboticists in Japan with the Summer Olympic Games in Tokyo. Are people going to use ROS Kinetic or ROS M-Turtle then?
With ROS K-turtle, Japanese language speakers feel like triumphed on getting “Kame” (turtle in their language) in its code name. But with M, there’s even a pet of all-time in Japan that the name starts from m. Midori-game!
Referenced from http://img.fukaebashi.kansai-reptile-pro.com/20120925_213732.jpg

No one can’t wait for “ROS Midorigame Turtle”, can we?

Ref. ROS release timeline http://wiki.ros.org/Distributions/Timeline


Back to the immediate concern, there’s a discussion for open controller of NEXTAGE OPEN that we’re maintaining about the versioning and the length of support. Please let us hear your thoughts in the discussion.

著者:Isaac Saito

OSS in DRC Final 2015DARPA Robotics Challenge でのオープンソース活用状況


During more than 30 workshop and seminars we’ve held since the Summer 2014, we are delighted to have talked to many engineers/managers (mostly from Japanese large companies) who’re interested in applying opensource software technologies to their development. Among other things, one of the most keen questions is how opensource software, particularly ROS, is going to be put into the “real/large systems”.

Seeking a hint, Isaac visited DARPA Robotics Challenge Final (DRC) in Pomona, CA., to see the evolution and the extent of opensource technologies in the very large scale robotics projects (he didn’t forget to cheer 3 teams from JSK lab our board member Kei Okada leads!).

There he was able to talk to managers from OSRF and asked how they view actual usage of ROS and Gazebo simulator in the competition, which the answer was later revealed on their blog stating that out of 23 teams, 18 used ROS and 14 used Gazebo. In addition, our own research brings out that 3 teams used OpenRTM via ROS and 1build their system on OpenRTM.

All robots from 24 teams must be very complexed system without exception; not just the transformer robots that a few most successful teams such as KAIST, CMU, JPL. Combined with the pressure to get the award and the amount of the resource spent, failures due to the system error should have not been an option for any team. Seeing the fact that the opensource technologies were employed for such a mission critical system’s control and operation is the most encouraging.


[Appendix] Interesting screenshot/movie is shared here…IHMC made their garage even theatrical to set a monitor at the entrance of their garage that played operation display. Operator is probably trying to match the location of the grasp target object while looking at the actual pose by seeing both camera and sensor output, and send the command. Despite the sparsely received pointcloud data (once in 30 seconds?) due to the hypothetical disaster network condition, the operator’s work looks very effective.

2014年夏から開始した ROS セミナー/ワークショップシリーズは,お陰様でこれまで30回以上開催し,多くの企業/研究者様と意見交換をさせて頂いております.その会話の中で必ずと行って良いほど話題に上がるのは,オープンソース技術,とりわけ ROS は今後実システムに使われるようになっていくのかということです.ロボット開発用ソフトウェアのデファクトスタンダードという言い方をされる (Wired 誌) こともある ROS ですが,実際は用途は研究に限られ,大規模プロジェクトや製品,産業用途としての取組は徐々に本格化しつつある段階というのが大方の見解ではないかと思います.

折しも今年の5・6月は世界的に大きな競技会が続いたので,ロボット業界の大イベントである DARPA Robotics Challenge Final (DRC) の会場を訪れることにし,オープンソースのロボット技術の潮流を体感することにしました (当協会理事・岡田准教授の出場チームの応援は無論ですが!).

#なお DRC については詳細は省きます.例えば日刊工業新聞記事などをご参考まで.

さて,参加チームは,競技が終了するまでは目一杯でしょうし,突然訪れて技術の根幹を教えてくれるわけもありません.そこはそれ,ROS の運営を行う米・オープンソースロボティクス財団 (OSRF) の幹部達と話したところ (当協会理事・斉藤が以前同財団でインターンした際の上司でもあります),既に多くのチームが ROS を利用している感触を得ているとのこと.後日同財団 WEB サイトに掲載されたレポートによると,23チーム18チームにおいて ROS が,14チームにおいて Gazebo シミュレータの利用が確認されたとのことでした.また,当協会独自の調べでは,3チームが ROS 経由で OpenRTM を利用しており,1チームは OpenRTM を中心にシステムを構成していました.

参加した24種類のロボットの形態は,最多を占めた二足歩行だけでなく,優勝した KAIST の変形型や多足など,バラエティに富んだものとなりましたが,どのロボットも例外なく複雑なシステムであったと思われます.また,億を超える優勝賞金,投入するリソースの量からしても,各チームともシステムエラーによる失敗はまず避けたかったはずです.そのようなミッションクリティカルなシステムの制御にオープンソースの技術がこれだけ多くのチームで使われたというのは,オープンソース支持者として喜ばしい限りです.


[オマケ] ロボットの貴重な操作画面を撮影出来たので共有します.上位入賞した米・IHMC のものです.カメラ画像とセンサー画像両方を見つつ,環境モデル中のオブジェクトと知覚情報とを合わせた後に,タスク指令を出していると思われます.災害下の通信が不安定な想定のため,pointcloud が数十秒間に一回しか更新されない厳しい状況でも,そつなく作業を進めているのが見て取れます.このような高信頼が求められるシステムにおいて,ハードウェアでなくソフトウェア・ベースの入力装置が多くのチームに用いられたのも興味深いことでした,
なお IHMC は Java ベースの独自開発のプラットフォーム用いており,ROS API もあるとのこと.NASA JSC が開発中の二足歩行ロボット Valkyrie (2016年には Space Robotics Challenge のプラットフォームとして使用される) も同じソフトを使うそうです.

サービス精神旺盛の IHMC チームのガラージ前はこのようにモニターが据付けられ,チーム内外の人が気軽に観戦できるようになっている.小さいが写真奥には,競技中のロボットを操作するメンバーと DARPA の監視役メンバーが作業している.

2015-06-06 15.20.46

著者:Isaac Saito

Pilot workshop using NEXTAGE OPEN at Kawada RoboticsNEXTAGE OPEN ワークショップ (パイロット版) を開催しました (於: カワダロボティクス株式会社)

当協会では2014年8月から,オープンソース・ソフトウェアを用いてロボットを操作・開発体験するワークショップを開催してきており,小規模ながらこれまで30回以上開催・のべ100名様以上にご参加頂いています (これまでの開催内容は主にこちらこちらこちらの三種類).企業を中心とした参加者様のニーズは多様で,当協会としてもワークショップ内容の幅を今後より拡げ,ご要望に応えて参りたいと考えています.

その一環として,今回,カワダロボティクス社NEXTAGE OPEN のワークショップ (パイロット版) を開催いたしました.このロボットは当協会がオープンソース版制御ソフトウェアをサポートさせて頂いており,今回カワダロボティクス社にロボットと場所のご提供を頂き,モニターとして既に同モデルのロボットをお使いの方々にお越し頂きました.

Starting from Summer 2014, TORK has been holding workshop/seminar/tutorials for introducing how to operate robots with opensource software, specifically ROS over 30 times for businesses in Japan (attendee has widely varied from robot manufacturers, electronics to web or even game developers). Today, we added another set of courses that use NEXTAGE OPEN from Kawada Industries (that also generously sponsored us the robot and the venue), of which opensource version of controller software we are very actively involved in its maintenance.

nxo_workshop_collage.com_201505
左図.会場としてお借りしたカワダロボティクス社の “コボット・パーラー” は,明るく落ち着いたリラックスできる協働スペースです.


ワークショップは,基盤となるソフトウェアである ROS の概要から始まり,ROS の代表的なモジュールの一つである MoveIt! を用いた動作生成を体験しました.また,体外に設置した点群カメラを用いた障害物を考慮した動作生成や,手先カメラで認識したマーカを掴む等,既存ユーザから要望の高い認識を用いたアプリケーションの概要も示されました.

当協会では今後このワークショップをラインナップに加え,NEXTAGE に興味をお持ちの方々や既にこのロボットをお持ちの方々の開発のヒントをご提供できればと考えております.初心者向け,中/上級者向けと,段階に応じて内容も充実させていく予定です.ご意見・ご要望を頂けると幸いです.info[a_t]opensource-robotics.tokyo.jp

Workshop started off with an overview of ROS and the review of basic concepts and commands. Then attendee experienced operating the robot with MoveIt! motion planner. Integration with vision (using Kinect, embedded hand cameras) was also introduced.

It is unclear yet whether the full content of the workshop will become available online, but some part of it that is missing from the current set of the tutorials will be added.

著者:Kei Okada

We made PS4Eye Stereo cam ROS package available! … in a wayPS4Eye Stereo カメラの ROS パッケージのリリースをお手伝いしました

We helped to release ROS package for PS4Eye Stereo camera! …Well, actually we only pushed only the last 1 mile, or maybe just a few feet.

Anyways, as you see, we’ve put together the pieces from opensource commnity and got the pipeline works!

TORK

 

PS4Eye Stereo カメラの ROS パッケージのリリースをお手伝いしました! といっても私達はほとんど何もしていません...

皆さんの力を合わせてより使いやすい環境を準備しロボット技術を前進させていきましょう!

TORK (東京オープンソースロボティクス協会)

著者:Kei Okada

Lunar Rover ROS/Gazebo SimulationHAKUTO ロボットシミュレータを開発しました


We worked with HAKUTO project, a Google Lunar XPRIZE contender from Japan, and helped their robots to thrust on the moon’s surface, virtually.

From its wiki page, you can try using ROS/Gazebo simulator of their robot.

hakuto-moon

Video


月面着陸するミッションに挑戦する Google XPrize で日本から唯一参加する HAKUTO のロボットの ROS/Gazebo シミュレータを開発しました.
是非 wiki ページ からダウンロードしてみてください.

hakuto-moon

動画

著者:Isaac Saito

Action required for NEXTAGE OPEN users for the upcoming software updateNEXTAGE OPEN ユーザの皆様へ:次回ソフトウェア更新する際の大事なお報せ

Upon the upcoming software update that’s reportedly scheduled soon (today: March 12, 2015), you might be required to apply small changes to your application.

Please read the following announcement and figure out if you’re affected, and take necessary actions.
https://github.com/tork-a/rtmros_nextage/issues/153

Please do not hesitate to send us any questions.
TORK

次回ソフトウェア更新の際に,お客様がお使いの NEXTAGE OPEN が動かなくなる場合があります.大変お手数ですが,以下リンクのアナウンスをお読み頂き,アクションが必要な場合は実施下さい.
https://github.com/tork-a/rtmros_nextage/issues/153

ご不明点はどうぞ遠慮なくご質問下さい.

東京オープンソースロボティクス協会

著者:Kei Okada

TORK mentors for GSoC15GSoC15 のメンターを引き受けます


TORK will be mentoring a student for Google Summer of Code 2015 organized by OSRF (Opensource Robotics Foundation), once a student is assigned to our project.
Please see project description at OSRF web site for more information. Discussion about our project happens here.


OSRF (Opensource Robotics Foundation) が実施する Google Summer of Code 2015 のメンターを引き受けることになりました.
興味の有る方はプロジェクト説明をご覧いただくか,お気軽にお声がけください.プロジェクトに関する議論はこちらで行っています.

gsoc15-gazebo-isaac

著者:Isaac Saito

TORK assisted Toyota to run a hackathon on HSR (Human Support Robot)トヨタ自動車様が開発中のロボット HSR (Human Support Robot) を用いたハッカソンを支援させて頂きました

トヨタ自動車株式会社 (以下トヨタ) 様が,同社が開発中のロボット “HSR” を用いた “ハッカソン” を行い,弊社はイベント運営とソフトウェア開発のお手伝いをさせて頂きました.

“ハッキング” (注) + “マラソン” の造語であるハッカソンは,短期間に集中してアイデアを出し合いながらソフトウェア開発を行い技術やアイデアを競い合うことで,新たなイノベーションのきっかけを模索するイベントです.

HSR は手足が不自由な人や高齢者の支援の為に開発中のロボットで,物を運んだり離れた所に居る人の様子を確認するなどして,家庭や施設での介護支援が念頭に置かれています.

トヨタ様では,HSR を研究の或いは医療福祉サービス提供のプラットフォームとして興味をお持ちの方々に実際に開発体験をして頂き,高性能のモバイル・マニピュレータを自由に扱って愉しみつつ,ユーザ視点のフィードバックを頂くことで今後の開発に繋げたい意向です.今回は,国内の研究者・学生の合計15名の方々を対象に,2014年10月23日,24日の二日間に渡り東京・湯島で開発を行なって頂きました.

まずデモと安全講習,チュートリアル等によってロボットの可能性を把握頂いた後,参加者はチームに分かれてこのロボットでの開発内容を話し合い,二日間の八割程度をチームごとの開発に費やしました.やはり HSR の本来の開発目的である介護シーンでの利用を中心に,しかし中にはエンタテイメント性を含んだり,バラエティのあるデモ案が実装に取組みました.

HSR は自己位置推定や認識に基づく障害回避,動作計画といった高度機能を搭載しており,それらはオープンソースのロボット用基盤ソフトウェアとして世界に広まりつつある ROS (Robot Operating System) 経由で利用できるため,既に ROS に習熟した参加者は違和感なくそれらの機能を用いて開発を進めることができたようです.一方 ROS にそこまで明るくない方も,簡易的にプログラミングできる Python 言語環境が用意されたため,支障なく開発を行うことができました.

二日間の最後には,成果発表,懇親会,ハッカソンイベントの”恒例”であるお揃いのイベント T シャツでの記念撮影などを通じ,濃密な二日間の労を労いつつ,HSR の今後の発展を話題にしながら親睦を深めました.

参考:トヨタ様の Facebook ページ上でのアナウンス

IMG_0081 HSR 三体が出動!

IMG_0082 開発真っ最中.活発な質問を頂き,トヨタ様・弊社共にスタッフも対応中. IMG_0086_2 ハッカソンの友:エナジードリンクの山.

IMG_0205 HSR,会話中 (静止画で伝わりにくいですが).

IMG_0193トランプ対決!

2014-10-24 19.28.48 HSR は無事に洋服を届けられるか?全員が固唾を飲んでます.

IMG_0246 ハッカソン T シャツを着込んだ皆様と HSR.お疲れ様でした!

注:ハッキングはコンピュータ等技術の深い知識を利用して様々な課題をクリアする行為を指します.メディア等では悪意を持ったコンピュータの侵入行為等がハッキングと呼ばれますが,本来その意味は”クラッキング”として区別されます (参考: Wikipedia).

Toyota Motor Corporation (TMC) hosted a 2-day hackathon on their HSR (Human Support Robot) on October 23th and 24th in Tokyo. TORK assisted the event organization and making the software.

HSR has been developed as an elderly care for domestic situations as well as in medical facilities. This time TMC invited researchers and students from institutes in Japan. 15 participants got a hands-on experience, tried out making small tasks to let the mobile-manipulator robot interact with human, and had fun.

All of the higher-end functionalities such as self-localization, vision-based collision avoidance, motion planning and so on are available via a de-facto standard opensource robotics framework ROS (Robot Operating System) (that is, as previously announced). It also comes with script language interface so that it doesn’t require developers to be well acquainted with ROS.

With the feedback from the attendees this time TMC expects to boost the development in the future.

Reference:Announcement on TMC Facebook page (in Japanese)

IMG_0081

IMG_0082

IMG_0086_2 One of the best accompaniment at hackathons: energy drinks.

IMG_0205 HSR, talking.

IMG_0193HSR plays the card!

2014-10-24 19.28.48 HSR picking a shirt for an (hypothetical) elder person.

IMG_0246

著者:wataru yasuda

Calling for trial participant for ROS Advanced Seminar (in Japanese)ROSセミナー中級編のモニター募集

当協会は,ROS 学習用教材の開発にも注力しております.

かねてから予告しておりましたROSセミナー中級編の教材が完成致しました.
この中級編では以下の「StackIt!」ロボットを動かすことを通じて,ROS 用のロボットモデル(URDF)の作成方法とROSにおける座標変換およびMoveIt! を利用したマニピュレーションの基礎を習得することが出来ます.

「StackIt!」ロボットは,任意の場所に置かれた3つのパックを順番に積み重ねていくタスクを実行する4軸ロボットです.

セミナー用教材の目次は以下のようになっております.
1.ロボットアームのモデル作成と表示
2.実物のロボットとシミュレータ上のロボットの接続
3.MoveIt!を使ってシミュレータ上のロボットを動かす
4.MoveIt!を使って本物のロボットを動かす
5.カメラによるARマーカの認識と座標変換
6.ロボットの動作プログラムの作成

本格開講に先立ちまして,このROSセミナー中級編のモニターを募集いたします.
一社当たり2名様まで,計3社分の募集となります.
開催日時は2014年10月3日(金)10:00~18:00です.
場所は湯島駅近くのシェアオフィスとなります.
参加費は無料です.
参加希望の方はinfo[a t]opensource-robotics.tokyo.jp までご連絡ください.
お申し込みは先着順となりますので,ご了承ください.

当協会は,ROS 学習用教材の開発にも注力しております.

かねてから予告しておりましたROSセミナー中級編の教材が完成致しました.
この中級編では以下の「StackIt!」ロボットを動かすことを通じて,ROS 用のロボットモデル(URDF)の作成方法とROSにおける座標変換およびMoveIt! を利用したマニピュレーションの基礎を習得することが出来ます.

「StackIt!」ロボットは,任意の場所に置かれた3つのパックを順番に積み重ねていくタスクを実行する4軸ロボットです.

セミナー用教材の目次は以下のようになっております.
1.ロボットアームのモデル作成と表示
2.実物のロボットとシミュレータ上のロボットの接続
3.MoveIt!を使ってシミュレータ上のロボットを動かす
4.MoveIt!を使って本物のロボットを動かす
5.カメラによるARマーカの認識と座標変換
6.ロボットの動作プログラムの作成

本格開講に先立ちまして,このROSセミナー中級編のモニターを募集いたします.
一社当たり2名様まで,計3社分の募集となります.
開催日時は2014年10月3日(金)10:00~18:00です.
場所は湯島駅近くのシェアオフィスとなります.
参加費は無料です.
参加希望の方はinfo[a t]opensource-robotics.tokyo.jp までご連絡ください.
お申し込みは先着順となりますので,ご了承ください.

著者:wataru yasuda

Free ROS seminar for business users企業様向け無償 ROS セミナー開催のお知らせ

TORK is now ready to roll seminars for ROS for business developers who are interested in building robots using ROS. Though we’ve started off giving free sessions but in Japanese, send us any interest to info[a t]opensource-robotics.tokyo.jp. See the Japanese translation page for images.


UPDATE 2015年4月: 無償セミナー開催は終了しました.引き続き ROS ワークショップ初級編 (有償) として好評開催中です.


当協会は,ROS 学習用教材の開発にも注力しております.
第一弾として,ROS セミナー「基礎編」を7月より開催致します.

この「基礎編」では,ROS を使ってセンサからの情報でアクチュエータを動かすところまで学習することを目的としています.

具体的には LeapMotion というセンサを用いて,手のひらの位置を検出し,それに従ってサーボモータを回転させるという内容です.

これから新たに ROS の学習をされる方にはきっとお役に立てる内容となっております.
こちらは企業様限定で無償で開催させて頂く予定です.
まずは,info[a t]opensource-robotics.tokyo.jp までご連絡ください.
基本的に毎週金曜日にある程度人数がそろい次第開催の予定ですが,企業様指定の場所に伺うプライベートセミナーも承りますので,是非ご相談ください.