感谢关注我们的工作,这是我的前实习生苏熠暄与我以及实习生兰天合作的提出的一套新的文本生成训练+decoding框架,在做出初步结果以后,觉得效果不错,为了进一步完善方法,邀请了好朋友老孔以及老孔的好朋友老丹一起参与了这个工作。另外,在论文写好之前,这套方法已经被广泛用于我们内部产品中,取代了之前的top k top p sampling方法。
在这篇工作中,我们针对开放式文本生成任务(Open-ended Text Generation)提出了一个新的训练策略(SimCTG)+解码算法(contrastive search)。我们在来自多语言的不同任务以及实际工业场景中进行了大量的自动及人工评测集。实验结果(见下图)表明我们的方法显著提升了文本生成模型的效果。论文以及所有代码模型均已开源。在Github开源项目中我们详细展示了如何在中文,英文,日文语言生成模型上使用我们的方法。简而言之,这是一个让大家不再需要top k top k sampling的工作,欢迎感兴趣的朋友一起交流讨论。