百科问答小站 logo
百科问答小站 font logo



2020年CVPR有哪些优秀的论文? 第1页

  

user avatar   gambling_db 网友的相关建议: 
      

CV 现在真的不得了了,大家关注的都是算法,单纯从应用场景上看到两篇有意思的。

  1. Fantastic Answers and Where to Find Them: Immersive Question-Directed Visual Attention.

视觉注意力的两种分析法:

  • 自上而下(Top-down):由任务驱动的,给被试一项任务,然后看被试在环境中的注意力分配,是人因工程研究的;
  • 自下而上(Bottom-up):由实验刺激(stimulus)驱动的,不关注被试,通过实验刺激的基本属性来直接预测被试的注意力分配,就是CV搞的。

说穿了,自下而上关注的是人,自上而下关注的是机器,正好是反着来的。对应的也就是人因工程和机器学习这两个方向。

这篇文章,首先做了自上而下的分析,让一群被试带着360度的VR设备,内嵌有眼动仪。然后让他们看着提供的视觉刺激,来回答一些问题,比如问他们图片里有几个人。然后发现回答正确和回答错误的人的注视区域是不一样的。

接着做了自下而上的分析,就是直接用他们的算法,根据视觉刺激来进行注意力预测。

最终发现,在忽视被试的情况下,单纯用他们的算法来对视觉刺激进行注意力预测,和用人来做实验看他们的注意力区域,是很接近的,而且适用于回答正确和回答错误两种情况,这个就有点神了。

2017年有一篇发在CVPR上的paper,原理类似,直接用视频来简单粗暴地预测司机的注意力分析,效果还可以。

2. Bringing Old Photos Back to Life.

是修复有折损的老照片的,折痕和噪点修复的都很好。


Reference:

  • Jiang, M., Chen, S., Yang, J., & Zhao, Q. (2020). Fantastic Answers and Where to Find Them: Immersive Question-Directed Visual Attention. InProceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition(pp. 2980-2989).
  • Palazzi, A., Abati, D., Solera, F., & Cucchiara, R. (2018). Predicting the Driver's Focus of Attention: the DR (eye) VE Project.IEEE transactions on pattern analysis and machine intelligence,41(7), 1720-1733.
  • Wan, Z., Zhang, B., Chen, D., Zhang, P., Chen, D., Liao, J., & Wen, F. (2020). Bringing Old Photos Back to Life. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 2747-2757).



  

相关话题

  我研一做实验,师兄写文章,一作博后师兄,二作加通讯是老师,三作给我。请问有用么? 
  人工智能顶会的best paper,后来都怎么样了? 
  淘宝买的“论文查重服务”会泄露论文吗? 
  如何看待 Nature 社论:鼓励重复性研究和无效结果? 
  论文需要用层次分析法,怎么用层次分析法计算权重?急求,需要细点讲解,网上收罗了些,没看明白。感谢!? 
  发表 SCI 到底有多难? 
  实验室只有1080的显卡,老师还想让发深度学习论文,也不给配置好的显卡怎么办? 
  中国计算机博士生在美自杀,生前发现自己论文有问题但导师执意发表,这种情况该怎么办?导师要为此担责吗? 
  大谈「导师崇高师娘优美」论文作者徐中民被处理,已拨项目资金被追回,说明了什么问题? 
  如何看待哈佛大学一篇论文,利用卫星图像和百度检索数据推测新冠发生于 2019 年 8 月? 

前一个讨论
如何计算CNN中batch normalization的计算复杂度(FLOPs)?
下一个讨论
在机器学习中,L2正则化为什么能够缓过拟合?





© 2025-01-18 - tinynew.org. All Rights Reserved.
© 2025-01-18 - tinynew.org. 保留所有权利