在文献[1]中对few-shot learning进行了很好地总结,其中提到了一个比较有意思的观点,这里和大家分享下。
在文献[1]中对few-shot learning进行了很好地总结,其中提到了一个比较有意思的观点,这里和大家分享下。先抛开few-shot learning的概念,我们先从几个基本的机器学习的概念进行分析。
期望风险最小化(expected risk minimization): 假设数据分布
经验风险最小化(empirical risk minimization): 实际上,数据分布
我们进行以下三种表示:
其中(4)表示最小化期望风险得到的理论上最优的假设
因为我们没办法知道
我们不难发现,整个深度模型算法的效果,最后取决于假设空间
数据,也就是
。模型,其决定了假设空间
。算法,如何在指定的假设空间
中去搜索最佳假设以拟合 。
通常来说,如果
为了解决在数据量缺少的情况下的不可靠的经验风险问题,也就是FSL问题,我们必须要引入先验知识,考虑到从数据,模型,算法这三个角度分别引入先验知识,现有的FSL工作可以被分为以下几种:
- 数据。在这类型方法中,我们利用先验知识去对
进行数据增广(data augment),从数据量 提高到 ,通常 。随后标准的机器学习算法就可以在已经增广过后的数据集上进行。因此,我们可以得到更为精确的假设 。如Fig 2 (a)所示。 - 模型。这类型方法通过先验知识去约束了假设空间
的复杂度,得到了各位窄小的假设空间 。如Fig 2 (b) 所示。灰色区域已经通过先验知识给排除掉了,因此模型不会考虑往这些方向进行更新,因此,往往需要更少的数据就可以达到更为可靠的经验风险假设。 - 算法。这类型的方法考虑使用先验知识,指导如何对
进行搜索。先验知识可以通过提供一个好的参数初始化,或者指导参数的更新步,进而影响参数搜索策略。对于后者来说,其导致的搜索更新步由先验知识和经验风险最小项共同决定。
Reference
[1]. Wang Y, Yao Q, Kwok J, et al. Generalizing from a few examples: A survey on few-shot learning[M]//arXiv: 1904.05046. 2019.