美文网首页
经典重读:Evaluating Knowledge Transf

经典重读:Evaluating Knowledge Transf

作者: 龙腾Zero | 来源:发表于2018-07-12 14:30 被阅读0次

在零样本学习(ZSL)中,一个重要的问题是如何有效的从其他来源获取知识。现在通行的ZSL方法中。Word-Embedding/Attribute是主要的知识来源,统称为Semantic Embeddings。然而其他的知识来源也可能非常有效。

马普所在论文Evaluation of output embeddings for fine-grained image classification中衡量了多种不同Semantic embedding对ZSL的效果。然而该论文对各种Semantic Embedding的来龙去脉甚为含糊,后续的研究中也鲜有提及。为了搞清楚各种不同的知识来源的来龙去脉,我们回顾马普所的系列研究中的经典论文之二:Evaluating Knowledge Transfer and Zero-Shot Learning in a Large-Scale Setting

经典论文之一:经典重读:What Helps Where – And Why? Semantic Relatedness for Knowledge Transfer

本文关注了大规模数据集ILSVRC2010上,使用不同的Knowledge来挖掘有效信息(Attribute或Hierarchy结构),本文评估了这些Knowledge为分类任务带来的影响。评估主要在普通分类和Zero Shot分类两个任务上进行。

本文评估的Knowledge包括:

  • ILSVRC数据集中的Hierarchy结构。这种结构体现了物体类别的总-分结构如下图所示:


    数据集中的Hierachy结构

    该结构为物体分类提供了额外的信息,例如:普通的1000-way分类只知道parsnip和turnip是不同的物体。但是利用Hierarchy结构提供的信息表明Parsnip和turnip虽然不同,但是实际上有相同的父节点,因而两者比其他类别更相似。使用Hierachy结构信息辅助分类有下述三种方式:

    • Baseline:只使用Hierarchy中的叶节点监督训练,即普通的1000-way分类
    • 使用Hierarchy中的内部节点作为一个标签参与监督训练(参照公式1)
    • 使用Hierarchy中的内部节点+叶节点监督训练(参照公式2)
  • 借助WordNet的整体-局部关系挖掘的Attribute(得到811个Attribute)。整体-局部关系在WordNet中的编码如下图所示:


    WordNet中包含的整体-局部关系

Attribute赋值由以下方法实现:

  • 赋值(即计算label与每一个Attribute的相似度)由基于Wiki的词向量内积实现
  • 赋值由 Web搜索引擎的label和Attribute的记录数量决定(Yahoo Holonyms与Yahoo Snippet经典论文之一中Yahoo Web的两种不同改进,该改进启发和贡献不大,因而此处略过不谈)。
  • 赋值由 图像搜搜引擎的label和Attribute的记录数量决定。
  • 越过Attribute,直接使用一组基类别y_i来表示其他类别z(参照本链接中的图2.b)。即有z = \sum_i \alpha_iy_i。为了确定系数\alpha_i,本文使用类似于赋值Attribute的方式:
    • \alpha_i(即计算z与每一个yi的相似度)为词向量(基于Wiki)内积。
    • \alpha_i由 Web搜索引擎的label和Attribute的记录数量决定(Yahoo Holonyms与Yahoo Snippet)。
    • \alpha_i由 图像搜搜引擎(Yahoo Image)的label和Attribute的记录数量决定。

这些方法在普通分类上的结果如下表:


在ZSL分类上的结果如下表:


上述结果的启示有:
1.Hierarchy信息对普通分类带来了一些干扰,这说明Hierarchy信息当中存在噪音。

  1. Hierarchy信息对ZSL带来了改善,这说明Hierarchy当中存在有益于知识迁移的部分。
  2. 基于Attribute的方法在两个任务中都表现不佳,这是因为Attribute Mining(即决定采用哪811个Attribute,以及为什么是811个)和Attribute Association(即为Attribute赋值)两个过程都引入了噪声。
  3. Combine Attribute能够融合各属性的优点,但是具体Combine的过程论文一笔带过,含糊其辞。

由于工作量大,出力不讨好,Hierarchy和Attribute Mining+Association的研究进展缓慢,但是这为可能的改进方向提出了一些问题,有待后人来回答。

相关文章

  • 经典重读:Evaluating Knowledge Transf

    在零样本学习(ZSL)中,一个重要的问题是如何有效的从其他来源获取知识。现在通行的ZSL方法中。Word-Embe...

  • 教案

    ■Teaching objectives Knowledge objective Correctly transf...

  • 从权力的游戏到游戏的权力 11-22

    看过权游的人,对于little finger and Cersei 的经典对峙:Knowledge is powe...

  • 经典重读

    《金刚般若波罗蜜经》简称《金刚经》,是一部宣扬大乘佛教般若性空思想的重要经典。我早前读过一次,感觉晦涩难懂,如云里...

  • 这4大策略可能你都懂,但依然可以大幅改善学习效果

    今天重读《Thinking and knowledge》第二章的内容,其中提到了改善学习效果的4个基本但很有效的策...

  • 重拾经典之水浒传

    文/白桦林 2017-2-28 重读经典的意义,不再是猎取故事之离奇,而在发现故事背后的人文。重读经典...

  • 250:《给教师的阅读建议》读书笔记十

    为什么要读经典 经典是那些你经常听人家说“我正在重读……”而不是“我正在读……”的书。 一部经典作品是一本每次重读...

  • Effective系列经典著作,铺就程序员殿堂之路

    Effective系列图书是我们学习中难以绕开的经典。经典书籍需要不断被重读,因为每一次重读都会带来新的体会。本文...

  • 重读经典

    太公曰:“天下非一人之天下,乃天下之天下也。同天下之利者,则得天下;擅天下之利者,则失天下。天有时,地有财,能与人...

  • 重读经典

    近日看了些热播剧,纯粹是抱着消遣娱乐的态度来打发无聊的时光,诚然剧中靓女帅哥你侬我侬灯红酒绿浮华繁胜景象,确实吸引...

网友评论

      本文标题:经典重读:Evaluating Knowledge Transf

      本文链接:https://www.haomeiwen.com/subject/gexlpftx.html