发布于2024-11-15 阅读(0)
扫一扫,手机访问
自监督学习(SSL)是无监督学习的一种方法,利用未标记的数据来训练模型。其核心思想是让模型在没有人工标签的情况下学习数据的表示方式。一旦模型学会了如何表示数据,它就可以应用于具有较少标记数据的下游任务,并且能够获得比没有经过自监督学习的模型更好的性能。通过自监督学习,模型可以利用数据中的隐含信息来进行学习,例如通过预测数据的旋转、颜色变化等。这种方法可以在缺乏标记数据的情况下提供一种有效的学习方式,对于解决大规模数据训练的问题具有重要意义。
1.基于对数据的理解,以编程方式从未标记的数据中生成输入数据和标签
2.预训练:使用上一步中的数据/标签训练模型
3.微调:使用预训练的模型作为初始权重来训练感兴趣的任务
自监督学习在各个领域,如文本、图像/视频、语音和图形等方面都取得了显著成功。它能够帮助我们理解图形数据中的结构和属性信息,并从无标记的数据中挖掘出有用的信息。因此,自监督学习擅长挖掘未标记的数据。
1.生成方法:恢复原始
信息非自回归:屏蔽标记/像素并预测屏蔽标记/像素(例如,屏蔽语言建模(MLM))
b.自回归:预测下一个标记/像素
2.预测任务:基于对数据的理解、聚类或扩充来设计标签
a:预测上下文(例如,预测图像块的相对位置,预测下一个片段是否是下一个句子)
b:预测聚类每个样本的id
c:预测图像旋转角度
3.对比学习(又名对比实例辨别):基于增强创建的正负样本对建立二元分类问题
4.自举方法:使用两个相似但不同的网络从同一样本的增强对中学习相同的表示
5.正则化:根据假设/直觉添加损失和正则化项:
a:正对应该相似
b:同一批次中不同样本的输出应该不同
上一篇:交叉熵简介及应用
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店