Report/自适应分层聚类的原型对比学习.md

4.6 KiB
Raw Blame History

自适应分层聚类的原型对比学习

1.相关研究与思路来源

主要参考了**《Prototypical Contrastive Learning of Unsupervised Representations》** ICLR 2021即原型对比学习的相关内容。该论文以“原型”驱动缓解了以实例驱动的无监督学习中模型忽略了负样本对之间的语义相似性导致的性能下降的问题。但原型对比学习仍然存在缺陷以“原型”为驱动的无监督学习也忽略了原型之间的语义相似性同时聚类的不准确性可能导致不同粒度的原型进行对比这导致学习不能很好得到准确的语义信息。

2.基本思路

通过多层的自适应聚类将数据的语义结构逐步编码到嵌入空间中以缓解推离原型导致的语义信息损失。具体而言通过建立一个自适应聚类数计算模块来控制每轮epoch下期望最大化算法EM中E步中寻找原型分布的聚类数目由粗至细地逐步构建不同粒度的原型并在同层级间构建对比损失以推动模型得到的样本表征与其原型更为接近与同层其他原型差异更大。同时通过调整密度的均衡性保证上层聚类对下层聚类拥有更为直接的指导作用加强不同层级之间的关联性。

3.实现细节

1.训练框架

Untitled Diagram.drawio (2)

待补充

2.聚类数计算模块(滑动窗口模块)

window

4.试验记录/现象与改进

1PCL基础上增加层次聚类完整训练1

log

现象:

聚类数在114-172时acc-proto的数值降低此后每次聚类数量增加时acc-proto的数值都会降低随着同级反复聚类又逐渐回升。

思考:

可能是mini-imagenet的类别正好为100类超过100类后原型构建更加不稳定。

改进方法:

在聚类数目较多的层数,可以考虑使用更多迭代次数帮助模型构建稳定的原型预测。

现象:

在acc-proto未提高甚至降低的时候acc-inst依旧在逐步提高。

思考1

虽然层次原型构建不稳定,但依旧能确定出该推远的原型和拉近的原型,由此帮助模型进步。

思考2

证明在一定数量的聚类层次中该层次区分原型的能力未发挥到极限如果该层级区分原型的能力达到极限应该两个acc在多个循环次数中不再有明显进步。

改进方法:

每层训练结束时取得平均acc-proto若acc-proto的数值在多次训练后进步较小提升率<1%说明原型构建相对稳定。同时acc-inst也进步较小说明在该原型聚类下已经很难获得进步再考虑增加聚类数目。

21的基础上增加了增加聚类数目的判定方法以两种acc提升与否作为聚类增加条件完整训练2

log2

现象:

训练到55epoch时acc_inst 平均为 84.7266, acc_proto 平均为 5.3151。可以看出虽然acc_proto很低但acc_inst却远超同期水平。同时稳定性很难突破限制聚类数目长时间停留在2、4上这与预期不符。

思考1

怀疑在训练过程中InfoNCE损失可能占据主导但稳定的原型依旧为性能提升给予了很大帮助。

思考2

如果长时间不增加聚类数目,很可能导致训练时过多以实例为驱动,影响最终性能。

思考3

在训练的前期由于模型不稳定acc_inst的提升可能很明显而到了训练后期acc_inst的提升却较为困难在某些epoch时还可能出现下降。

思考4

acc_proto的值在增加聚类数目时会有较大的变化一般而言是提升而在固定聚类数目时变化较小。

改进方法:

1.采用滑动窗口法如果当前epoch的acc没有超过窗口长度的前几次epoch的最高acc或对比最高acc增幅小于一定比例则增加聚类数增加。在每次聚类数增加后清空窗口。

2.对acc_inst采用随epoch增加更为宽松的threshold对acc_proto可不设threshold。

3.在acc_proto能提升时acc_inst超过窗口长度不增加聚类数目。acc_proto超过窗口长度acc_inst增加高于threshold提升threshold数值不增加聚类数目。acc_proto超过窗口长度acc_inst增加低于thresholdthreshold恢复原值增加聚类数目。