首页
查找话题
首页
做中文 NLP 的时候,大家为啥不用拼音?
做中文 NLP 的时候,大家为啥不用拼音? 第1页
1
wu-wo-cao 网友的相关建议:
首先这引入了两个新问题,多音字问题。同音字问题。然后。。。这还是要分词。所以意义在哪里。
maigo 网友的相关建议:
该从哪里开始吐槽呢?
给汉语文本注音本身就是一项颇有难度的NLP课题。
NLP中的通用方法是以「词」为单位的。把汉字转换成拼音之后,如果依然是以字为单位,那么还是没法处理。如果要分词,那么没必要转换成拼音。
做中文 NLP 的时候,大家为啥不用拼音? 的其他答案 点击这里
1
相关话题
AI 都学会看论文了,科研工作者会被淘汰么?
如何看待Transformer在CV上的应用前景,未来有可能替代CNN吗?
现在的BERT等语言模型,最快训练要多久?
如何看待2021年哔哩哔哩拜年纪采用机器生成的假弹幕?
在NLP当中,不同的评价指标,BLEU, METEOR, ROUGE和CIDEr的逻辑意义?
2020年,多标签学习(multi-label)有了哪些新的进展?
Transformer是如何处理可变长度数据的?
为什么中文 NLP 数据集这么少?
什么是狄利克雷分布?狄利克雷过程又是什么?
如何理解Inductive bias?
前一个讨论
虚拟电话号存在的意义到底是什么?
下一个讨论
JavaScript 有必要缓存 for 循环中的 Array.length 吗?
相关的话题
有哪些深度学习效果不如传统方法的经典案例?
如何评价微软亚洲研究院提出的LightRNN?
NLP 方向在国内清北读博还是国外?
为什么 BERT 的 intermediate_size 这么大?
隐私计算、计算机视觉、自然语言处理三者中,哪个研究起来更有前途?
目前(2017年)机器阅读技术发展得如何?能达到什么水平?有哪些应用?
国内做NLP业务的香侬科技值得去吗?
如何看待FAIR提出的8-bit optimizer:效果和32-bit optimizer相当?
如何理解Inductive bias?
如何看待Transformer在CV上的应用前景,未来有可能替代CNN吗?
2021 年了,机器/深度学习还有哪些坑比较好挖?
基于对比学习(Contrastive Learning)的文本表示模型【为什么】能学到语义【相似】度?
为什么不能有把中文想法直接转换成电脑程序的编程呢?
为什么Transformer适合做多模态任务?
国内较强的NLP高校实验室有哪些?
现在的BERT等语言模型,最快训练要多久?
在中文 NLP 等论文中,应该如何翻译 token 这个词?
隐私计算、计算机视觉、自然语言处理三者中,哪个研究起来更有前途?
为什么 Siri 听懂了我的话,还是不能做出有效的回答或准确的操作?
如何评价1700亿参数的GPT-3?
2020年,多标签学习(multi-label)有了哪些新的进展?
2021 年了,机器/深度学习还有哪些坑比较好挖?
2020-2021年NLP有什么核心技术的更迭吗?或者有什么推动领域发展的paper吗?
NLP文本匹配问题的本质是不是 对于要预测的句子,遍历候选句子 从训练数据集里寻找最相似的pair?
有哪些利用搜索引擎(Search Engine)辅助自然语言处理任务(NLP)的论文?
如何理解Inductive bias?
2021 年了,机器/深度学习还有哪些坑比较好挖?
有哪些令你印象深刻的魔改transformer?
有哪些深度学习效果不如传统方法的经典案例?
不觉得最大熵原理很奇怪吗?
服务条款
联系我们
关于我们
隐私政策
© 2025-07-02 - tinynew.org. All Rights Reserved.
© 2025-07-02 - tinynew.org. 保留所有权利