Unet:U-Net: Convolutional Networks for Biomedical Image Segmentation目标检测模型在Keras当中的实现
目录
- 仓库更新 Top News
- 相关仓库 Related code
- 性能情况 Performance
- 所需环境 Environment
- 文件下载 Download
- 训练步骤 How2train
- 预测步骤 How2predict
- 评估步骤 miou
- 参考资料 Reference
Top News
2022-03
:进行大幅度更新、支持step、cos学习率下降法、支持adam、sgd优化器选择、支持学习率根据batch_size自适应调整。
BiliBili视频中的原仓库地址为:https://github.com/bubbliiiing/unet-keras/tree/bilibili
2020-08
:创建仓库、支持多backbone、支持数据miou评估、标注数据处理、大量注释等。
相关仓库
模型 | 路径 |
---|---|
Unet | https://github.com/bubbliiiing/unet-keras |
PSPnet | https://github.com/bubbliiiing/pspnet-keras |
deeplabv3+ | https://github.com/bubbliiiing/deeplabv3-plus-keras |
性能情况
unet并不适合VOC此类数据集,其更适合特征少,需要浅层特征的医药数据集之类的。
训练数据集 | 权值文件名称 | 测试数据集 | 输入图片大小 | mIOU |
---|---|---|---|---|
VOC12+SBD | unet_vgg_voc.h5 | VOC-Val12 | 512x512 | 45.48 |
VOC12+SBD | unet_resnet_voc.h5 | VOC-Val12 | 512x512 | 64.12 |
所需环境
tensorflow-gpu==1.13.1
keras==2.1.5
文件下载
训练所需的权值可在百度网盘中下载。
链接: https://pan.baidu.com/s/1beAQ3wnmwJr2b_H19nO5fg
提取码: sa5u
VOC拓展数据集的百度网盘如下:
链接: https://pan.baidu.com/s/1vkk3lMheUm6IjTXznlg7Ng
提取码: 44mk
训练步骤
一、训练voc数据集
1、将我提供的voc数据集放入VOCdevkit中(无需运行voc_annotation.py)。
2、运行train.py进行训练,默认参数已经对应voc数据集所需要的参数了。
二、训练自己的数据集
1、本文使用VOC格式进行训练。
2、训练前将标签文件放在VOCdevkit文件夹下的VOC2007文件夹下的SegmentationClass中。
3、训练前将图片文件放在VOCdevkit文件夹下的VOC2007文件夹下的JPEGImages中。
4、在训练前利用voc_annotation.py文件生成对应的txt。
5、注意修改train.py的num_classes为分类个数+1。
6、运行train.py即可开始训练。
三、训练医药数据集
1、下载VGG的预训练权重到model_data下面。
2、按照默认参数运行train_medical.py即可开始训练。
预测步骤
一、使用预训练权重
a、VOC预训练权重
- 下载完库后解压,如果想要利用voc训练好的权重进行预测,在百度网盘或者release下载权值,放入model_data,运行即可预测。
img/street.jpg
- 在predict.py里面进行设置可以进行fps测试和video视频检测。
b、医药预训练权重
- 下载完库后解压,如果想要利用医药数据集训练好的权重进行预测,在百度网盘或者release下载权值,放入model_data,修改unet.py中的model_path和num_classes;
_defaults = {
#-------------------------------------------------------------------#
# model_path指向logs文件夹下的权值文件
# 训练好后logs文件夹下存在多个权值文件,选择验证集损失较低的即可。
# 验证集损失较低不代表miou较高,仅代表该权值在验证集上泛化性能较好。
#-------------------------------------------------------------------#
"model_path" : 'model_data/unet_voc_medical.h5',
#----------------------------------------#
# 所需要区分的类的个数+1
#----------------------------------------#
"num_classes" : 2,
#----------------------------------------#
# 所使用的的主干网络:vgg、resnet50
#----------------------------------------#
"backbone" : "vgg",
#----------------------------------------#
# 输入图片的大小
#----------------------------------------#
"input_shape" : [512, 512],
#----------------------------------------#
# blend参数用于控制是否
# 让识别结果和原图混合
#----------------------------------------#
"blend" : True,
}
- 运行即可预测。
img/cell.png
二、使用自己训练的权重
- 按照训练步骤训练。
- 在unet.py文件里面,在如下部分修改model_path、backbone和num_classes使其对应训练好的文件;model_path对应logs文件夹下面的权值文件。
_defaults = {
#-------------------------------------------------------------------#
# model_path指向logs文件夹下的权值文件
# 训练好后logs文件夹下存在多个权值文件,选择验证集损失较低的即可。
# 验证集损失较低不代表miou较高,仅代表该权值在验证集上泛化性能较好。
#-------------------------------------------------------------------#
"model_path" : 'model_data/unet_vgg_voc.h5',
#----------------------------------------#
# 所需要区分的类的个数+1
#----------------------------------------#
"num_classes" : 21,
#----------------------------------------#
# 所使用的的主干网络:vgg、resnet50
#----------------------------------------#
"backbone" : "vgg",
#----------------------------------------#
# 输入图片的大小
#----------------------------------------#
"input_shape" : [512, 512],
#----------------------------------------#
# blend参数用于控制是否
# 让识别结果和原图混合
#----------------------------------------#
"blend" : True,
}
- 运行predict.py,输入
img/street.jpg
- 在predict.py里面进行设置可以进行fps测试和video视频检测。
评估步骤
1、设置get_miou.py里面的num_classes为预测的类的数量加1。
2、设置get_miou.py里面的name_classes为需要去区分的类别。
3、运行get_miou.py即可获得miou大小。
Reference
https://github.com/ggyyzm/pytorch_segmentation
https://github.com/bonlime/keras-deeplab-v3-plus