谢邀。刚好我前几天写过。以下内容节选自我前几天写的一篇的文章,稍有删改,更详细内容可点击原文:
发表时间:2021年1月11日
论文地址:Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity
亮点:
知乎相关讨论:
发表时间:2021年3月2号
论文地址:Self-supervised Pretraining of Visual Features in the Wild
亮点:
博客:
发表时间:2021年3月25号
论文地址:Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
亮点:
文章的几位作者现身知乎作答:
如何看待swin transformer成为ICCV2021的 best paper?
发表时间:2021年4月29号
论文地址:Emerging Properties in Self-Supervised Vision Transformers
亮点:
发布时间:2021年5月4号
论文地址:MLP-Mixer: An all-MLP Architecture for Vision
亮点:
不过Yann LeCun说,这种技巧只是「烹饪艺术」
知乎相关讨论:
发布时间: 2021年6月19号
项目地址:GitHub Copilot.
在把Github Copilot选进来是,我是有点犹豫的,因为Github Copilot确实有很多争议,例如违反开源协议,代码抄袭等等。但从技术角度来看,这确实是一个不错的玩法,而且自动补全的代码很强,甚至还能刷LeetCode,我也用过一段时间,确实能帮助我提高写代码效率。当然,不要依赖它,毕竟它写的代码不能保证是没bug的。
相关视频讲解:
开源时间:2021年7月21日
项目地址:GitHub - deepmind/alphafold: Open source code for AlphaFold.
AlphaFold2虽然是去年的论文,但今年才公布源码。
亮点:
知乎相关讨论:
发布时间:2021年10月10号
论文地址:Yuan 1.0: Large-Scale Pre-trained Language Model in Zero-Shot and Few-Shot Learning
亮点:
知乎相关讨论:
发布时间:2021年10月11号
亮点:
知乎相关讨论:
发布时间:2021年11月24日
论文地址:NÜWA: Visual Synthesis Pre-training for Neural visUal World creAtion
亮点:
知乎相关讨论:
当然,仅仅列举十个AI成果还是不够的,我想尝试从这十个成果里总结几点今年人工智能发展的趋势:
除了上面列举的十个成果之外,今年还有很多其他不错的成果,例如2600亿参数的ERNIE 3.0 Titan,何恺明大神的Masked Autoencoders,等成果都不错,但怕超过10个大家看起来有压力,所以不展开写了了,感兴趣的可以搜搜看。
看完这10大AI成果,你是觉得今年的AI成果没去年那么令人激动人心,还是觉得今年的AI成果更有意思的呢?无论你怎么看,都欢迎告诉我你的想法。
作者: @桔了个仔
人工智能从业者,专注AI风控技术,写作爱好者,天天和猫咪一起写代码,写知乎。面向人生编程,欢迎关注,一起进步,一起吸猫。更多精彩内容见下面的索引。