# U-Net
# 1.基础介绍
论文:U-Net: Convolutional Networks for Biomedical Image Segmentation (opens new window)
工程:https://lmb.informatik.uni-freiburg.de/people/ronneber/u-net/ (opens new window)
这是德国弗赖堡大学2015年05月份发表的论文,最早接触U-Net
是2017年的时候,现在再回过头来看下这些经典全卷积语义分割网络。截至2023年03月份,这篇文章的引用已经达到了57800多次,从这里可以看出这篇文章在语义分割方向的地位,也能看出AI+CV
的热度之高。
U-Net
网络的提出是为了对医学领域细胞电镜的图像进行分割,这个任务特殊之处在于医学图像获取比较困难,因此只能从小样本数据中学习。作者通过对训练数据进行增强来学习,医学细胞图像多样性没有那么多,但更多的是旋转,尺度,形变和亮度这些。作者提出的端到端训练的全卷积网络包括特征提取的压缩路径和上采样的扩展路径,比较早的采用了这种编解码结构的模型。医学图像中特殊的地方还有一处就是,细胞虽然属于同个类别,但不是同个细胞时还需要把细胞间的间隔背景给识别出来,为此作者提出了一种加权的损失函数,增大了间隔背景的损失权重,更利于模型的学习。
总结这篇文章的主要工作有以下几点:
- 包含压缩路径和扩展路径的编解码结构的全卷积分割模型,实现了端到端训练
- 提出了一种加权损失函数,更利于学习个体之间的间隔背景
- 基于数据增强的小样本学习及一种利于边缘像素预测的
Overlap-tile strategy
# 2.Overlap-tile strategy
为了避免在分割的边沿产生了类似于padding
的黑边,文中作者提出了Overlap-tile strategy
,原理就是沿着边沿取图像的一部分,然后将其沿着边镜像,通过这中方式将原图的size
进行扩大,避免在训练时对图像原图的边沿进行填充。
如上图,原来输入图的大小是388
,左右上下取原图像上92
像素镜像扩展得到输入图像的大小为572
。
# 3.网络模型
与之前介绍的FCN
中不同,这里特征融合使用的是,低层特征图和高层特征图直接在通道方向上concatenate
后得到。
压缩路径,2个uppadded的3x3卷积层, 后跟ReLU和2x2的stride=2的最大值池化层
每下采样一次,卷积的通道数翻倍
扩展路径,2x2的转置卷积,2倍上采样,通道数减半,与压缩路径中对应大小的feature map concatenate,再使用两个conv3卷积层使通道数减半,最后使用1x1
的卷积在通道上输出每个像素位置所属类别的结果。
论文中,只需要分割出是否是细胞,因此最后卷积输出的通道数即类别数是2.
# 4.损失函数
如上图中
最后一层卷积的输出在通道方向上使用SOFTMAX
函数可以得到类别概率图,
交叉熵损失函数的定义:
获取权重图的一个pytorch
实现的代码示例如下:
class CellDataset(Dataset):
...
def _get_boundary_weight(self, target, w0=10, sigma=5):
"""This implementation is very computationally intensive!
about 30 minutes per 512x512 image
"""
print('Calculating boundary weight...')
n, H, W = target.shape
weight = torch.zeros(n, H, W)
ix, iy = np.meshgrid(np.arange(H), np.arange(W))
ix, iy = np.c_[ix.ravel(), iy.ravel()].T
for i, t in enumerate(tqdm(target)):
boundary = find_boundaries(t, mode='inner')
bound_x, bound_y = np.where(boundary is True)
# broadcast boundary x pixel
dx = (ix.reshape(1, -1) - bound_x.reshape(-1, 1)) ** 2
dy = (iy.reshape(1, -1) - bound_y.reshape(-1, 1)) ** 2
d = dx + dy
# distance to 2 closest cells
d2 = np.sqrt(np.partition(d, 2, axis=0)[:2, ])
dsum = d2.sum(0).reshape(H, W)
weight[i] = torch.Tensor(w0 * np.exp(-dsum**2 / (2 * sigma**2)))
return
代码引用自2 (opens new window)