当前深度学习技术主要是data driven的,即对一个特定任务来说,只要增加训练数据的规模,深度学习模型的表现就可以得到提高。但是发展到今天,这种思路面临很多挑战。主要面临下面几个问题:
为了解决上面的问题,当前的研究前沿主要包括以下几个方向:
引入外部知识(如知识图谱,WordNet)
Knowledge-Based Semantic Embedding for Machine Translation
A Neural Knowledge Language Model
深度学习与传统方法的结合。
无监督的深度生成模型。
Generative Adversarial Networks
从具体研究方向上来说,我觉得深度学习在图像和语音上已经非常成熟,因为图像信号和语音信号,都是比较原始的信号,从原始信号中抽取特征对人比较困难,但对深度学习模型比较容易,因此深度学习技术率先在这两个领域取得巨大成功。而NLP领域,因为文字是一种high level的信息,而且从文字到语义,存在一个比较大的语义鸿沟,因此深度学习技术在NLP上存在很大的挑战,但是挑战也意味着机会,因此除了传统NLP领域的研究人大量开始发力深度学习,许多其他领域的人(如机器学习,统计),也开始向NLP进军(Bengio组的人开始搞机器翻译,语言模型,对话系统等等)。
上面是我一些不太成熟的看法,欢迎大家指正交流。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有