更新 12月5日汇报.md

main
李芳州 2024-12-05 21:45:56 +08:00
parent 8845052bc4
commit 637a8c1c21
1 changed files with 3 additions and 3 deletions

View File

@ -79,18 +79,18 @@ def adjust_labels(proto_selected, labels_proto):
1⃣**最小化样本与最相似的 K 个原型之间的距离,最大化与不相似的原型之间的距离** 1⃣**最小化样本与最相似的 K 个原型之间的距离,最大化与不相似的原型之间的距离**
假设有一个样本$$x_i$$ ,它与$$K$$个原型的相似度分别为$$s_{i1},s_{i2},...,s_{iK}$$。可以设计如下损失函数: 假设有一个样本$x_i$ ,它与$$K$$个原型的相似度分别为$s_{i1},s_{i2},...,s_{iK}$。可以设计如下损失函数:
$$ $$
Loss_i=∑_{k=1}^Kw_k⋅∥x_iμ_k∥2 Loss_i=∑_{k=1}^Kw_k⋅∥x_iμ_k∥2
$$ $$
其中,$$w_k$$是与原型 $$μ_k$$相关的权重(例如与距离成反比),$$∥⋅∥$$是距离度量。 其中,$w_k$是与原型 $μ_k$相关的权重(例如与距离成反比),$∥⋅∥$是距离度量。
总的损失为最小化样本与最相似的 K 个原型之间的距离,又最大化样本与不相似的原型之间的距离: 总的损失为最小化样本与最相似的 K 个原型之间的距离,又最大化样本与不相似的原型之间的距离:
$$ $$
\mbox{Total Loss}=∑_{k=1}^Kw_k⋅∥x_iμ_k∥^2+λ⋅∑_{k=K+1}^Mmax(0,\alpha-∥x_iμ_k∥^2) \mbox{Total Loss}=∑_{k=1}^Kw_k⋅∥x_iμ_k∥^2+λ⋅∑_{k=K+1}^Mmax(0,\alpha-∥x_iμ_k∥^2)
$$ $$
第二项为最大化样本与不相似原型(第 K+1 到第 M 个原型)之间的距离,$$λ$$ 是调节两部分之间平衡的超参数,$$\alpha$$是推远距离的阈值。 第二项为最大化样本与不相似原型(第 K+1 到第 M 个原型)之间的距离,$λ$ 是调节两部分之间平衡的超参数,$\alpha$是推远距离的阈值。
通过最小化这个损失函数,我们可以确保每个样本与多个原型保持一定的关系,而不是仅仅依赖于最相似的一个原型。 通过最小化这个损失函数,我们可以确保每个样本与多个原型保持一定的关系,而不是仅仅依赖于最相似的一个原型。