更新 12月5日汇报.md
parent
8845052bc4
commit
637a8c1c21
|
@ -79,18 +79,18 @@ def adjust_labels(proto_selected, labels_proto):
|
||||||
|
|
||||||
1️⃣**最小化样本与最相似的 K 个原型之间的距离,最大化与不相似的原型之间的距离**
|
1️⃣**最小化样本与最相似的 K 个原型之间的距离,最大化与不相似的原型之间的距离**
|
||||||
|
|
||||||
假设有一个样本$$x_i$$ ,它与$$K$$个原型的相似度分别为$$s_{i1},s_{i2},...,s_{iK}$$。可以设计如下损失函数:
|
假设有一个样本$x_i$ ,它与$$K$$个原型的相似度分别为$s_{i1},s_{i2},...,s_{iK}$。可以设计如下损失函数:
|
||||||
$$
|
$$
|
||||||
Loss_i=∑_{k=1}^Kw_k⋅∥x_i−μ_k∥2
|
Loss_i=∑_{k=1}^Kw_k⋅∥x_i−μ_k∥2
|
||||||
$$
|
$$
|
||||||
其中,$$w_k$$是与原型 $$μ_k$$相关的权重(例如与距离成反比),$$∥⋅∥$$是距离度量。
|
其中,$w_k$是与原型 $μ_k$相关的权重(例如与距离成反比),$∥⋅∥$是距离度量。
|
||||||
|
|
||||||
总的损失为最小化样本与最相似的 K 个原型之间的距离,又最大化样本与不相似的原型之间的距离:
|
总的损失为最小化样本与最相似的 K 个原型之间的距离,又最大化样本与不相似的原型之间的距离:
|
||||||
|
|
||||||
$$
|
$$
|
||||||
\mbox{Total Loss}=∑_{k=1}^Kw_k⋅∥x_i−μ_k∥^2+λ⋅∑_{k=K+1}^Mmax(0,\alpha-∥x_i−μ_k∥^2)
|
\mbox{Total Loss}=∑_{k=1}^Kw_k⋅∥x_i−μ_k∥^2+λ⋅∑_{k=K+1}^Mmax(0,\alpha-∥x_i−μ_k∥^2)
|
||||||
$$
|
$$
|
||||||
第二项为最大化样本与不相似原型(第 K+1 到第 M 个原型)之间的距离,$$λ$$ 是调节两部分之间平衡的超参数,$$\alpha$$是推远距离的阈值。
|
第二项为最大化样本与不相似原型(第 K+1 到第 M 个原型)之间的距离,$λ$ 是调节两部分之间平衡的超参数,$\alpha$是推远距离的阈值。
|
||||||
|
|
||||||
通过最小化这个损失函数,我们可以确保每个样本与多个原型保持一定的关系,而不是仅仅依赖于最相似的一个原型。
|
通过最小化这个损失函数,我们可以确保每个样本与多个原型保持一定的关系,而不是仅仅依赖于最相似的一个原型。
|
||||||
|
|
||||||
|
|
Loading…
Reference in New Issue