Zero-Shot Learning
- 希望模型能够识别出在训练阶段未曾见过的类别
- 概括一下,就是利用类别的高维语义特征代替样本的低维特征,使得训练出来的模型具有迁移性。这里斑马的高维语义就是马的外形、老虎的斑纹、熊猫的颜色,尽管缺乏更多细节,但这些高维语义已经足够刻画斑马,从而让计算机成功识别出来未见过的斑马实例
- 根据测试或推论时数据的可用性,零样本学习也可以分为两类。
- 常规零样本学习
在常规的零样本学习中,在测试时要识别的图像仅限于未知类别,即测试类别。但这类方法并不实用,因为实际中很难保证测试时数据仅仅来自未知的类别。 - 广义零样本学习
在广义零样本学习中,测试时的图像可以属于已知或未知类别。与常规设置相比,该设置实际上更加实用,但却更具挑战性。原因就是该模型仅在已知类图像上训练,因此可想而知其预测会偏向于已知类。这会导致许多未知类的图像在测试时被错误地分类为已知类,从而大大降低了模型的性能。
- 常规零样本学习
零样本学习(zero-shot learning)——综述_zero shot综述-CSDN博客
“Zero-shot training strategy”(零样本训练策略)是一种机器学习策略,旨在使模型能够在没有见过特定类别的训练样本的情况下对其进行分类或执行其他任务。这个策略的目标是使模型具有泛化到新类别或新任务的能力。
关键思想包括:
- 使用通用特征表示: 在训练期间,模型学习一些通用的特征表示,这些特征对于各种类别都是有用的,而不仅仅是训练样本中的类别。
- 跨类别泛化: 模型被设计成能够将这些通用特征应用于未见过的类别,从而实现跨类别的泛化。
- 使用语义嵌入: 对象、概念或类别之间的语义关系被嵌入到模型中,使得模型能够理解新类别与已知类别之间的关系。
这种策略常常在自然语言处理、计算机视觉等领域中使用,其中模型需要处理多个类别或任务,而不是仅仅关注于训练集中的特定类别。例如,在图像分类中,零样本学习可能涉及到对模型进行训练,以便它能够在测试时正确分类未在训练中见过的物体类别。
这个策略的成功取决于模型的能力学习通用的、泛化的特征表示,以及训练过程中引入的其他先验知识或结构。
futuer
- 一.样本的一些特性样本的一些特性没有用到。比如图像物体识别,除了图像本身,物体的其他方面的特征也可以用上;一些多模态的数据;时间序列的特点等。
- 二.训练数据的选择(1)现有的零样本学习,训练集和测试集往往是同一种类型,比如都是图片,或都是文字。实际上训练集和测试集的数据所对应的类别可以不在同一个语义空间,比如训练集是物体图片,测试集是场景图片。甚至训练集和测试集的实例都不相同,比如训练集是音频,测试集是图片。有些语义类型的数据很容易得到,而有的不容易得到,所以尝试一下异构零样本学习也是很有必要的。(2)通过主动学习挑选训练数据。可以减轻标注压力
- 三.额外信息的选择和保持额外信息不仅仅是在语义空间,也可以使用其他类型的语义信息。比如属性空间(attribute space),也有研究不适用语义空间,而使用人工构造的类别相似度信息。得到额外信息后,如何在训练中保持这些额外信息也很重要,即使这些信息在训练过程中不丢失,不改变。因为当只学习样本分类器的时候,额外信息就很容易丢失。有些工作加入了重构模块,以尽大可能使额外信息在训练中保持。
- 四.更加实际和更加针对于特定任务的问题设置(1)在现实生活中,测试集中往往即包括训练集中出现的类别,也包括未出现的类别,这种问题设置称为广义零样本学习(generalized zero-shot learning)。在这种问题设置下,模型的效果要比零样本学习差很多,所以有很大改进的地方(2)不同任务设置不同的方法
- 五.理论研究现有方法大多是一些启发式的,并没有严格的证明。比如(1)如何选择额外信息(2)哪些来自训练样本的信息对测试样本分类有帮助?(3)如何阻止无关信息迁移和负迁移?
- 六.与其他学习方法相结合比如zero-shot和few-shot相结合;与机器学习方法相结合,比如零样本学习可以做为主动学习之前的步骤来加强主动学习的效果等等
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 chiblog!
评论