Lovasz Loss 是一種用于訓(xùn)練分割模型的損失函數(shù),它通過最小化真實(shí)標(biāo)簽和預(yù)測標(biāo)簽之間的差異來提高模型的準(zhǔn)確性和穩(wěn)定性,被廣泛應(yīng)用于醫(yī)學(xué)圖像分割、自然語言處理、圖像識別、社交網(wǎng)絡(luò)分析等領(lǐng)域。
一、Lovasz Loss 簡介
Lovasz Loss 的核心在于求解兩個(gè)集合之間的距離,其中一個(gè)集合是真實(shí)標(biāo)簽集合,另一個(gè)集合是預(yù)測標(biāo)簽集合。距離的計(jì)算方法是基于 Lovasz 擴(kuò)展理論的,該理論主要用于研究無序的、不可比的有限偏序集的性質(zhì)。
在分割模型中,我們通常使用 Dice Loss 或交叉熵?fù)p失作為評價(jià)指標(biāo),但是這些損失函數(shù)不太適用于非平衡數(shù)據(jù)集,因?yàn)樗鼈儠?dǎo)致分類結(jié)果傾向于具有較多樣本的類別。
Lovasz Loss 的主要優(yōu)點(diǎn)是,它可以有效地處理非平衡數(shù)據(jù)集,并且在處理稀疏邊界問題時(shí)非常有效。此外,Lovasz Loss 與直接優(yōu)化非概率評分函數(shù)(如 IoU 或 Dice 等)相比具有更好的數(shù)學(xué)性質(zhì)。
二、計(jì)算 Lovasz Loss
Lovasz Loss 的核心在于計(jì)算預(yù)測序列的排列代價(jià),它可以表示為以下公式:
def lovasz_grad(gt_sorted):
"""
計(jì)算 Lovasz Loss 的梯度
"""
p = len(gt_sorted)
gts = gt_sorted.sum()
intersection = gts - gt_sorted.float().cumsum(0)
union = gts + (1 - gt_sorted).float().cumsum(0)
jaccard = 1.0 - intersection / union
if p > 1:
jaccard[1:p] = jaccard[1:p] - jaccard[0:-1]
return jaccard
def flatten_binary_scores(scores, labels):
"""
將概率評分函數(shù)與對應(yīng)的標(biāo)簽轉(zhuǎn)換為二進(jìn)制函數(shù)
"""
num_classes = scores.shape[1]
all_thresh = torch.unsqueeze(torch.arange(num_classes), dim=0).cuda()
all_scores = torch.unsqueeze(scores, dim=0)
all_labels = torch.unsqueeze(labels, dim=0)
gt = all_labels.long().cuda()
scores = all_scores.float().cuda()
scores = (scores > torch.unsqueeze(all_thresh, dim=2)).float()
scores_sorted, _ = torch.sort(scores, dim=1, descending=True)
grad = []
loss = []
for i in range(num_classes):
gt_i = gt[:, i].float()
grad_i = lovasz_grad(gt_i * 2 - 1)
grad.append(grad_i)
loss_i = torch.dot(torch.relu(scores_sorted[:, i] - gt_i * 2 + 1), grad_i)
loss.append(loss_i)
return torch.stack(loss), torch.stack(grad)
其中 gt_sorted 是通過對真實(shí)標(biāo)簽集合進(jìn)行排序得到的標(biāo)簽序列,scores 是模型產(chǎn)生的預(yù)測標(biāo)簽序列。這個(gè)函數(shù)將概率評分函數(shù)與對應(yīng)的標(biāo)簽轉(zhuǎn)換為二進(jìn)制函數(shù),然后計(jì)算二進(jìn)制函數(shù)的 Lovasz Loss。
下面是 Lovasz Loss 的標(biāo)準(zhǔn)表達(dá)式:
def multi_lovasz_loss(scores, labels):
"""
計(jì)算多類別 Lovasz Loss
"""
num_classes = scores.shape[1]
if num_classes == 1:
loss, _ = lovasz_hinge(scores.squeeze().float(), labels.float())
return loss.unsqueeze(0)
losses = []
grad = None
for i in range(num_classes):
loss_i, grad_i = lovasz_hinge(scores[:, i], labels[:, i], per_image=False)
losses.append(loss_i)
if grad is None:
grad = torch.empty(num_classes, grad_i.size(0)).cuda()
grad[i] = grad_i
loss = torch.cat(losses).mean()
return loss, grad
該函數(shù)可以計(jì)算多類別 Lovasz Loss,如果只有一個(gè)類別,它會使用 Lovasz Hinge Loss。
三、應(yīng)用 Lovasz Loss
Lovasz Loss 在分割模型、圖像識別、社交網(wǎng)絡(luò)分析等領(lǐng)域都得到了廣泛的應(yīng)用。下面是一個(gè)利用 Lovasz Loss 進(jìn)行圖像分割的實(shí)例:
class SegmentationLoss(nn.Module):
"""
基于 Lovasz Loss 的圖像分割損失函數(shù)
"""
def __init__(self, mode='binary', per_image=False):
super(SegmentationLoss, self).__init__()
self.mode = mode
self.per_image = per_image
def forward(self, outputs, labels):
if self.mode == 'binary':
loss, grad = lovasz_hinge(outputs.squeeze(), labels.squeeze(), per_image=self.per_image)
elif self.mode == 'multiclass':
loss, grad = multi_lovasz_loss(outputs, labels)
return loss
我們可以通過定義一個(gè)繼承自 nn.Module 的 SegmentationLoss 類來使用 Lovasz Loss 訓(xùn)練分割模型。根據(jù)需要,可以選擇單類別分割或多類別分割。
四、總結(jié)
Lovasz Loss 在非平衡數(shù)據(jù)集的圖像分割中具有很好的性能,特別是在處理稀疏圖像邊界問題時(shí)非常有效。然而,它也有一些缺點(diǎn),例如在計(jì)算上相對復(fù)雜,訓(xùn)練時(shí)間相對較長。
通過深入理解 Lovasz Loss 的核心思想和計(jì)算方法,我們可以更好地應(yīng)用它來提高分割模型的準(zhǔn)確性和穩(wěn)定性。