概要

作ったもの

DepthAnything-ROS

  • 可視化
    • data: nuScenes
    • Fine tuning無しでこのぐらいできているのが凄い
  • ロボットで使えるレベルには汎化性能はある
    • 一方でrelative monocular depth estimation なので、結構使いどころは選ぶ
    • 一見便利そうには見えるけど、使い方をちゃんと考えないとロボットアプリケーションに使うのは結構難しいとは感じる
  • 推論速度もTensorRTを使うと全然使えるレベル
    • Latencyも考慮すると Depth-Anything-Base で十分かなという印象
Model Params RTX2070 TensorRT
Depth-Anything-Small 24.8M 27 ms, VRAM 300MB
Depth-Anything-Base 97.5M 65 ms, VRAM 700MB
Depth-Anything-Large 335.3M 200 ms, VRAM 1750MB
  • 界隈のスピード感が流石に早すぎる、休日にこの分野触るだけだと限界にも感じる
    • 時系列
    • Depth Anythingも元々はTiktokの研究で所謂映えなどそっちの分野由来
      • そこから1週間ごとで別分野に波及して何かしらのソフトウェアがバンバン立つ感じ
      • 実装の品質的な話はちょっとあるが、それを除いたにしても早いなと感じる

nuscenes_rosbag

  • 適当にROSインテグのテストように nuScenes datasetのrosbag(ROS2用)が欲しかったが、いい感じにrosbag 作れる奴がなかった
  • ので適当に組み合わせて作った
    • ROS1 環境が必要だったのでDockerfile作ったり
  • 基本は https://github.com/scepter914/ros-useful-tools/tree/main/nuscenes_rosbag のREADMEの通りにやればROS1とROS2用のrosbagを作成できるはず