前言

​ 本文简单记录介绍一下SALT的使用情况。

​ SALT是基于Meta最近发布的Segment-Anything模型来标记图像并以COCO格式保存标注数据的通用标注工具。


正文

一、SALT介绍

SALT基于Segment-Anything模型实现标记图像并以COCO格式保存标注数据,得益于SAM的强大分割能力,可以帮助标注者更轻松精确的标注想要的任何实体。

二、SALT安装

  • 安装sam(环境要求 python>=3.8, pytorch>=1.7 以及torchvision>=0.8)
1
2
git clone https://github.com/facebookresearch/segment-anything.git
cd segment-anything && pip install -e .

安装好后,下载默认模型参数:vit-h,放置到自定义位置。

  • 安装salt
1
2
git clone https://github.com/anuragxel/salt.git
cd salt
  • 转换数据集

准备好待标注的数据集dataset,将图片放入dataset/images,并新建文件夹dataset/embeddings

运行命令:

1
python helpers/extract_embeddings.py --checkpoint-path “自定义的sam模型参数文件路径” --dataset-path “待标注的数据集路径”
  • 转换模型

运行命令:

1
python helpers/generate_onnx.py --checkpoint-path “自定义的sam模型参数文件路径” --onnx-models-path “自定义转换的onnx模型文件路径”  --dataset-path “待标注的数据集路径”
  • 开始标注
1
python segment_anything_annotator.py --onnx-models-path “自定义转换的onnx模型文件路径” --dataset-path “待标注的数据集路径” --categories “需要标注的对象列表,比如cat,dog” 

三、SALT使用

标注家具

salt1

标注人物

salt2

salt3

四、总结

安装使用上没有难度,需要本地有块6G以上显存的显卡。

标注效果比手动标注更精确更快速,可以实现点击标注,框选标注等。

题外话:Meta发布了相当多有价值的项目,包括SAM,DINOv2和”泄露”的LLaMa语言模型等等,还有深度学习研究必备的Pytorch。


最后

参考文章:

官方项目

Segment-Anything通用分割模型


声明

本文仅作为个人学习记录。

本文永久记录于区块链博客xlog