百科问答小站 logo
百科问答小站 font logo



如何评价 DeepMind 的新工作 AlphaCode? 第1页

  

user avatar   lu-yu-feng-46-1 网友的相关建议: 
      

关注code intelligence相关工作很久了,其实20年那会就已经能做到生成的短片段代码具备可执行能力,后来CodeX基于GPT3呈现了非常惊人的NL2PL的能力,Copilot又在代码补全上火了一把,这个领域从原本软件工程问题逐渐被NLPer渗透。大规模预训练在代码智能方面又有得天独厚的条件(数据量大,且没自然语言那么复杂),不断出现各种突破是可以预见的(代替人应该还早)。

这里给大家看看最近做代码预训练的Paper就知道了,从ELMo开始就有人考虑用代码去做预训练了,虽然出发点不见得相同,有的人为了做特定任务,如注释生成,代码补全等等,有的为了研究代码的表示学习,但伴随着NLP技术的演进其实一直在发展。

顺带一提,其实做算法题应该算是代码智能各类任务中相对简单的(NL2PL里约束较多的问题,大家可以去对比CodeX想做到的,有context的纯自然语言描述编程)。可能一般看到这个问题都会觉得不明觉厉甚至产生些许AI替代程序员的YY(前景还是有的),其实大可先多了解一下。这里附上微软亚洲研究院的CodeXGLEU,是近几年对代码智能任务整理最全的一个benchmark了

然后我自己因为长期在关注,也整理了一个列表(虽然其实不全),大家也可以做个参考




  

相关话题

  如何评价 DeepMind 在北京时间 19 年 1 月 25 日 2 点的《星际争霸 2》项目演示? 
  在文本分类任务中,有哪些论文中很少提及却对性能有重要影响的tricks? 
  为什么机器学习解决网络安全问题总是失败? 
  如何评价 DeepMind 的新工作 AlphaCode? 
  如何看待亚马逊智能音箱劝主人自杀的新闻? 
  如何评价 Google 在 2022 年 3 月公开的 Pathways 架构设计? 
  如何评价 DeepMind 新提出的关系网络(Relation Network)? 
  从进化的角度看,实现强人工智能,究竟是数据重要还是模型重要? 
  科大讯飞用人类翻译的内容冒充智能 AI 同传一事是否属实?AI 同传「造假」是否普遍? 
  对神经网络某一层做了小改进,效果却提升显著,可以发论文吗? 

前一个讨论
是否存在虚虚数j,使得j^2=-i?
下一个讨论
搞机器学习的生环化材是天坑吗?





© 2025-06-05 - tinynew.org. All Rights Reserved.
© 2025-06-05 - tinynew.org. 保留所有权利