百科问答小站 logo
百科问答小站 font logo



如何评价 DeepMind 的新工作 AlphaCode? 第1页

  

user avatar   lu-yu-feng-46-1 网友的相关建议: 
      

关注code intelligence相关工作很久了,其实20年那会就已经能做到生成的短片段代码具备可执行能力,后来CodeX基于GPT3呈现了非常惊人的NL2PL的能力,Copilot又在代码补全上火了一把,这个领域从原本软件工程问题逐渐被NLPer渗透。大规模预训练在代码智能方面又有得天独厚的条件(数据量大,且没自然语言那么复杂),不断出现各种突破是可以预见的(代替人应该还早)。

这里给大家看看最近做代码预训练的Paper就知道了,从ELMo开始就有人考虑用代码去做预训练了,虽然出发点不见得相同,有的人为了做特定任务,如注释生成,代码补全等等,有的为了研究代码的表示学习,但伴随着NLP技术的演进其实一直在发展。

顺带一提,其实做算法题应该算是代码智能各类任务中相对简单的(NL2PL里约束较多的问题,大家可以去对比CodeX想做到的,有context的纯自然语言描述编程)。可能一般看到这个问题都会觉得不明觉厉甚至产生些许AI替代程序员的YY(前景还是有的),其实大可先多了解一下。这里附上微软亚洲研究院的CodeXGLEU,是近几年对代码智能任务整理最全的一个benchmark了

然后我自己因为长期在关注,也整理了一个列表(虽然其实不全),大家也可以做个参考




  

相关话题

  2021年深度学习哪些方向比较新颖,处于上升期或者朝阳阶段,没那么饱和,比较有研究潜力? 
  如何评价旷视开源的YOLOX,效果超过YOLOv5? 
  语音交互要解决哪些问题,才能摘掉“人工智障”的帽子? 
  从鸦片战争到如今,我们中国是怎样一步步获得现在的国际地位的? 
  GAN(对抗生成网络)可以被用于哪些(商业或潜在商业)实际问题? 
  就目前来看,生物和人工智能的结合意义如何? 
  如何看待张潼老师从腾讯离职? 
  如何证明马尔科夫链一定会达到稳态? 
  如何理解深度学习中的deconvolution networks? 
  LSTM如何来避免梯度弥散和梯度爆炸? 

前一个讨论
是否存在虚虚数j,使得j^2=-i?
下一个讨论
搞机器学习的生环化材是天坑吗?





© 2025-01-30 - tinynew.org. All Rights Reserved.
© 2025-01-30 - tinynew.org. 保留所有权利