首页
查找话题
首页
做中文 NLP 的时候,大家为啥不用拼音?
做中文 NLP 的时候,大家为啥不用拼音? 第1页
1
wu-wo-cao 网友的相关建议:
首先这引入了两个新问题,多音字问题。同音字问题。然后。。。这还是要分词。所以意义在哪里。
maigo 网友的相关建议:
该从哪里开始吐槽呢?
给汉语文本注音本身就是一项颇有难度的NLP课题。
NLP中的通用方法是以「词」为单位的。把汉字转换成拼音之后,如果依然是以字为单位,那么还是没法处理。如果要分词,那么没必要转换成拼音。
做中文 NLP 的时候,大家为啥不用拼音? 的其他答案 点击这里
1
相关话题
如何评价微软机器翻译在 WMT2017 中英翻译达到「人类水平」?
神经网络中 warmup 策略为什么有效;有什么理论解释么?
如何看待华为 4 月 25 日发布的盘古智能大模型?在这个行业处于什么水平?
如何看待学霸君的高考机器人 Aidam 高考全国文科数学卷考了 134 分?
为什么Transformer适合做多模态任务?
cv/nlp等方向的就业困难是全球性的吗?
AI 都学会看论文了,科研工作者会被淘汰么?
为什么计算注意力机制的时候不加偏置项?
如何看待学霸君的高考机器人 Aidam 高考全国文科数学卷考了 134 分?
如何评价 BERT 模型?
前一个讨论
虚拟电话号存在的意义到底是什么?
下一个讨论
JavaScript 有必要缓存 for 循环中的 Array.length 吗?
相关的话题
深度学习领域,你心目中 idea 最惊艳的论文是哪篇?
Facebook 的人工智能实验室 (FAIR) 有哪些厉害的大牛和技术积累?
谷歌翻译原理是什么,从语言A到B,中间是否要翻译成中介语言C(如英语)?
多模态方面,有哪些牛组值得我们follow他们的工作?
Transformer中的Mask矩阵已经有顺序了,能去掉position embedding吗?
预训练模型的训练任务在 MLM 之外还有哪些有效方式?
Pytorch有什么节省显存的小技巧?
深度学习attention机制中的Q,K,V分别是从哪来的?
刷leetcode使用python还是c++?
实体提取任务中使用BERT-CRF时,CRF根据数据统计可以得到转移概率,为啥还要训练呢?
为什么Bert中的CLS在未fine tune时作为sentence embedding性能非常糟糕?
BERT模型可以使用无监督的方法做文本相似度任务吗?
如何评价 2021 年 12 月新改版的知识引擎 magi.com?
word2vec有什么应用?
如何看待Capsule Network在NLP领域的潜力?
如何评价微软亚洲研究院提出的LightRNN?
如何看待NLP领域最近比较火的prompt,能否借鉴到CV领域?
cv/nlp等方向的就业困难是全球性的吗?
为什么编程语言语法的设计不往缩小与自然语言的差别的方向发展,或者说在这个方向发展得这么慢呢?
AI领域的灌水之风如何破局?
请问有哪些法律和计算机领域结合的例子?
预训练模型的训练任务在 MLM 之外还有哪些有效方式?
如何评价最近火热的对比学习,会引领预训练模型新的范式嘛?
NLP领域,你推荐哪些综述性的文章?
Transformer中的Mask矩阵已经有顺序了,能去掉position embedding吗?
2021 年,深度学习方面取得了哪些关键性进展?
为什么计算注意力机制的时候不加偏置项?
AI领域的灌水之风如何破局?
Transformer是如何处理可变长度数据的?
如何评价微软机器翻译在 WMT2017 中英翻译达到「人类水平」?
服务条款
联系我们
关于我们
隐私政策
© 2025-06-17 - tinynew.org. All Rights Reserved.
© 2025-06-17 - tinynew.org. 保留所有权利