百科问答小站 logo
百科问答小站 font logo



2020到2021年小样本学习取得重大进展了吗? 第1页

  

user avatar   you-meng-xiang-de-xian-yu-48-63 网友的相关建议: 
      

要想较好的解决少样本学习这个问题,甚至达到与多样本学习相近的性能表现,就需要思考造成少样本学习如此困难的本质是什么。

是因为少样本导致经验风险最小化不可靠?少样本导致深度模型极易过拟合?或者是极少的样本无法反映真实数据分布?

针对“少样本无法反映真实数据分布,所以导致模型过拟合”这个现象,我们最新的一篇工作试图利用有限的样本去估计潜在的真实数据分布,并且实现了还不错的效果。

我觉得这是一个有趣的方向,假如该分布估计足够准确,少样本和传统多样本学习还存在很大的差别吗?


user avatar   jakezhao1992 网友的相关建议: 
      

现有的小样本学习的benchmark和数据集,基本围绕在实现AGI这个目标上面。

以Lake et al.开发的omniglot为例,通过小样本学习来实现复杂象形文字的识别。但是说真的,这东西我们人看上去都不知道是什么 — 它距离实际应用有点远。

其实在工业界中真正有意义的小样本学习场景有很多。

我举个例子。在化学反应这个场景下,专业人员的最终目标是提升某种产物的产率。这里面的搜索空间的关键变量包括各种反应物,反应物的质量,催化剂,反应条件(包括湿度、温度等等)。而可用的数据是多少呢?可能是零。

你不要以为我在开玩笑,正经的应用其实数据就是零。在工程实施的环节,一般的流程是专家通过实验的方式积累一些数据,可能也就几十个。有意义的人工智能这里要做的是用过这几十个数据,对剩余的搜索空间进行一个搜索(其他的反应物、催化条件、反应条件等)。如果说搜索空间最终的高产率是个很小的子空间,那么初期的数据往往是低产率的数据。之后通过模型推荐出来的组合之后再做一批实验,之后融入到训练集里,反复上个流程。

这里就有了个非常有意思的小样本学习的问题,如何用产率很小的数据来预测高产率的反应组合?或者是这里的训练集是有偏的,它们的产率往往很小,距离最终的最优子空间的距离很远。

我没有谈要用什么方法来做这个,不管是监督学习(分类啊 回归啊啥的),还是元学习(maml啊之类的),或者其他的什么方法。这些暂时还不是那么重要。

可能在我们这个bubble里面,我们已经习惯了那种反馈很快的环境(比如说alphago,模拟一遍就出来结果了)。在这个场景下,一批数据的获取可能要花上几天甚至几周的时间。类似于这种情况的还有各路生物、材料等等场景。我认为凡是数据获取周期很长,成本不低的场景下,都是一个又一个鲜活的有意义的小样本学习问题。




  

相关话题

  皮尔逊系数为什么要中心化?中心化之后有什么好处? 
  自监督学习(Self-supervised Learning)有什么比较新的思路? 
  如何评价Google Duplex(打电话AI)在特定领域已经通过了图灵测试? 
  深度学习有哪些好玩的案例? 
  如果你是面试官,你怎么去判断一个面试者的深度学习水平? 
  如何看待李国杰院士在科学网发文称,国内 AI 研究「顶不了天、落不了地」,该想想了? 
  简单解释一下sparse autoencoder, sparse coding和restricted boltzmann machine的关系? 
  深度学习中Attention与全连接层的区别何在? 
  如何评价微软新出的自拍软件 Microsoft Selfie? 
  ICLR 2022有哪些值得关注的投稿? 

前一个讨论
机器学习中如何识别图片中的手是手背还是手心?
下一个讨论
为什么有些人不会被自己的呼噜声吵醒?





© 2025-03-25 - tinynew.org. All Rights Reserved.
© 2025-03-25 - tinynew.org. 保留所有权利