首页
查找话题
首页
ICLR 2018 有什么值得关注的亮点?
ICLR 2018 有什么值得关注的亮点? 第1页
1
onlytailei 网友的相关建议:
ICLR 2018已经结束提交,这次ICLR有什么值得圈点之处?
ICLR 2018 有什么值得关注的亮点? 的其他答案 点击这里
1
相关话题
如何看待NVIDIA 即将开源的DLA?
GPU 与 CPU 比较,为什么说 GPU 更适合深度学习?
为什么 MobileNet、ShuffleNet 在理论上速度很快,工程上并没有特别大的提升?
为什么Bert中的CLS在未fine tune时作为sentence embedding性能非常糟糕?
测试集在构造的时候需要人为控制其中应该正确的和应该错误的数据比例吗?
2021年深度学习哪些方向比较新颖,处于上升期或者朝阳阶段,没那么饱和,比较有研究潜力?
深度学习对图像的处理,为什么大多基于RGB,而没有其他色彩空间,比如HSV?
能否把一个人的所有物理数据输入在一个模型里,然后计算他接下来的状态变化?
如何看待谷歌公开 tensorflow 专用处理器 TPU?
对于多指标评价,BP神经网络评价和TOPSIS有什么区别呢?
前一个讨论
AI领域的灌水之风如何破局?
下一个讨论
知乎上这么多推崇学 Python 入 IT 行的,如果他们学完 Python 这一套找不到工作怎么办?
相关的话题
普通FPGA工程师怎样向人工智能靠拢?
什么是人工智能?人工智能、机器学习、深度学习三者之间有什么关系吗?
如何看待马毅老师深度学习第一性原理的文章在 ICML 四个审稿人一致接收的情况下被 AC 拒了?
为什么读论文最好打印出来读?
你实践中学到的最重要的机器学习经验是什么?
如何看待 AlphaFold 在蛋白质结构预测领域的成功?
如何看待在某度搜不到megengine官网?
word2vec有什么应用?
研一,在学机器学习和深度学习,为什么感觉越学越不会,怎么解决这个问题?
如何评价微软亚研院提出的把 Transformer 提升到了 1000 层的 DeepNet?
新手如何入门pytorch?
为什么说大模型训练很难?
CPU和GPU跑深度学习差别有多大?
要研究深度学习的可解释性(Interpretability),应从哪几个方面着手?
如何评价 Kaiming 团队新作 Masked Autoencoders (MAE)?
ICLR 2021 有什么值得关注的投稿?
为什么ViT里的image patch要设计成不重叠?
深度学习attention机制中的Q,K,V分别是从哪来的?
如何理解 inductive learning 与 transductive learning?
mxnet的并行计算为什么这么牛,是什么原理?
为什么ViT里的image patch要设计成不重叠?
一个完整的Pytorch深度学习项目代码,项目结构是怎样的?
CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?
实验室一块GPU都没有怎么做深度学习?
有哪些人工智能上的事实,没有一定人工智能知识的人不会相信?
自学深度学习是怎样一种体验?
Yoshua Bengio为什么能跟Hinton、LeCun相提并论??
如何理解attention中的Q,K,V?
深度学习火热兴起后,隐马尔可夫模型(HMM)还有何独到之处,是不是几乎可被深度学习模型给替代了?
如何评价陈天奇的模块化深度学习系统NNVM?
服务条款
联系我们
关于我们
隐私政策
© 2025-04-10 - tinynew.org. All Rights Reserved.
© 2025-04-10 - tinynew.org. 保留所有权利