作者丨Lilian Weng 编译丨丛末编辑丨陈彩娴现实应用中,数据易得,而有标签的数据少有。一般而言,当监督学习任务面临标签数据不足问题时,可以考虑以下四种解决办法:1.预训练+微调:首先在一个大规模无监督数据语料库上对一个强大的任务无关模型进行预训练(例如通过自监督学习在自由文本上对语言模型进行预训练,或者在无标签图像上对视觉模型进行预训练),之后再使用一小组标签样本在下游任务上对该模型进行微调。2.半监督学习:同时从标签样本和无标签样本中学习,研究者使用该方法在视觉任务上进行了大量研究。3.主动学习:标注成本高,即便成本预算有限,也希望尽可能收集更多的标签数据。主动学习选择最有价值的无标注样本,并在接下来的收集过程中收集此类数据,在预算有限的情况下,帮助模型尽可能达到期望效果。4.预训练+生成新数据:给定一个功能强大的预训练模型,可以利用该模型来自动生成更多得多的带有不同形式信息增强处理后的新样本。
根据OpenAI研究员Lilian Weng所述,全面的介绍半监督学习这一方法,她博客地址为https://lilianweng.github.io/1什么是半监督学习?半监督学习同时使用带有真实或伪造信息以及没有任何信息增强处理过的一些输入作为输出提供反馈来指导网络结构。在这种情况下,我们需要重点关注如何设计能够捕捉到这些基于特征空间密度、聚类、低密度分离和流形假设之间关系并将其转化为可用于优化网络结构参数值的问题。
我们可以这样理解,无论是通过加权项选择合适的人工设计还是自动调整权重以实现平滑、高密度分组、低密度分离或流形假设,这些都是为了确保我们的损失函数能够有效地捕捉到这些假设所描述的特征空间内隐藏模式,以此来提高分类准确性。
声明,此文并不覆盖所有半监督方法,只聚焦于如何通过修改损失函数和构建更复杂架构来优化当前存在于深层次网络中的表示能力。这涉及到不仅仅是改变某个单一部分,还要考虑整个系统如何协同工作以实现最佳结果。
符号说明表:
代表唯一正确答案。
代表与正确答案相似的其他可能答案。
代表那些被认为与目标相关但不是明确正确答案的情况。
表示当两个条件概率分布接近时,其差异较小。
表示不同类型的情感状态,如正面情绪、负面情绪等。
关于这个主题,你还想了解更多吗?