challenge
Recent advances in mobile sensing field [7, 13] come up with meta-learning algorithms [17] as their FSL solutions. However, they cannot settle the above two kinds of overhead fundamentally: (1) Data collection overhead persists. The principle of meta-learning to recognize unseen classes is to bring adequate prior knowledge from an enlarged base dataset, which could be prohibitively huge to collect. Hence, instead of completely solving the data collection overhead, meta-learning shifts this overhead from unseen gesture collection to base dataset collection. (2) Training overhead remains. While meta-learning architecture mitigates the training overhead in unseen gestures recognition, it multiplies the complexity of the regular training process.

强化学习-把元学习(Meta Learning)一点一点讲给你听_元学习和强化学习-CSDN博客

  • machine learning 和 meta learning 都是要找一个 function,但是两者所要寻找的 function 是不相同的,前者寻找的是解决一个问题的 f,后者寻找的是生成 f 的 F。F 的输入是训练数据,输出是解决一个小问题的 f。得到一个最好的 learning algorithm 做为 F
  • 很多人看到 meta learning 的更新参数方法以后心想:这不就是迁移学习吗?!!!!其实是有区别的。迁移学习中的 model pre-training(假设 task 2 的训练集太小不好训练,我们将和 task 2 相似的 task 1 作为先导数据集,进行训练,将训练的结果作为 task 2 的初始化)。Meta learning 中的参数θ是模型刚刚生成的 \hat{\theta }^{^{n}},但是 model pre-training 的参数就是当前使用的模型的参数 \phi。Model Pre-training 方法想要得到的参数 fai 就是在任何 task 上都表现良好的参数。但是 MEML 想要得到的参数是在任务 task 中经过训练集训练所能得到的比较好的参数。Model pre-train 的方法比较看重的是当前的表现,而 MAML 则更看重未来的表现。
  • 我们通常希望 MAML 可以做到的是:得到的参数 \phi 在子任务 task 中只更新一次就得到最好的θ。那么为什么要这么做呢!1,我们的 meta learning 有很多的任务,假设每一个任务都要更新很多次参数的话,会很慢,所以我们为了追求速度,就让模型只更新一次就好。2,我们本来的想法就是希望参数 \phi 仅仅更新一次就得到这个子任务 task 的参数 \hat{\theta }^{^{n}}。3,当我们训练的时候,我们仅仅是让其更新一次,但是当我们真实测试的时候,我们往往可以更新无数次 4,我们本身就是没有多少训练集,所以我们往往希望可以一次更新就得到参数。
  • sin 函数的例子清晰的说明元学习的方法