百科问答小站 logo
百科问答小站 font logo



如何评价 DeepMind 的新工作 AlphaCode? 第1页

  

user avatar   lu-yu-feng-46-1 网友的相关建议: 
      

关注code intelligence相关工作很久了,其实20年那会就已经能做到生成的短片段代码具备可执行能力,后来CodeX基于GPT3呈现了非常惊人的NL2PL的能力,Copilot又在代码补全上火了一把,这个领域从原本软件工程问题逐渐被NLPer渗透。大规模预训练在代码智能方面又有得天独厚的条件(数据量大,且没自然语言那么复杂),不断出现各种突破是可以预见的(代替人应该还早)。

这里给大家看看最近做代码预训练的Paper就知道了,从ELMo开始就有人考虑用代码去做预训练了,虽然出发点不见得相同,有的人为了做特定任务,如注释生成,代码补全等等,有的为了研究代码的表示学习,但伴随着NLP技术的演进其实一直在发展。

顺带一提,其实做算法题应该算是代码智能各类任务中相对简单的(NL2PL里约束较多的问题,大家可以去对比CodeX想做到的,有context的纯自然语言描述编程)。可能一般看到这个问题都会觉得不明觉厉甚至产生些许AI替代程序员的YY(前景还是有的),其实大可先多了解一下。这里附上微软亚洲研究院的CodeXGLEU,是近几年对代码智能任务整理最全的一个benchmark了

然后我自己因为长期在关注,也整理了一个列表(虽然其实不全),大家也可以做个参考




  

相关话题

  从今年校招来看,机器学习等算法岗位应届生超多,竞争激烈,未来 3-5 年机器学习相关就业会达到饱和吗? 
  目标检测中的mAP是什么含义? 
  深度学习两张3080ti和一张3090ti哪个好? 
  如何评价哈工大的左旺孟老师? 
  GAN的生成器是怎么产生图片的? 
  语义网所谓的“本体”的具体例子是什么? 
  贝叶斯深度学习是什么,和传统神经网络有何不同? 
  机器学习系统MLSys中有哪些比较有前途的研究方向? 
  能否使用神经网络来判断奇偶数? 
  如何看待谷歌公开 tensorflow 专用处理器 TPU? 

前一个讨论
是否存在虚虚数j,使得j^2=-i?
下一个讨论
搞机器学习的生环化材是天坑吗?





© 2024-11-21 - tinynew.org. All Rights Reserved.
© 2024-11-21 - tinynew.org. 保留所有权利