首页
查找话题
首页
做中文 NLP 的时候,大家为啥不用拼音?
做中文 NLP 的时候,大家为啥不用拼音? 第1页
1
wu-wo-cao 网友的相关建议:
首先这引入了两个新问题,多音字问题。同音字问题。然后。。。这还是要分词。所以意义在哪里。
maigo 网友的相关建议:
该从哪里开始吐槽呢?
给汉语文本注音本身就是一项颇有难度的NLP课题。
NLP中的通用方法是以「词」为单位的。把汉字转换成拼音之后,如果依然是以字为单位,那么还是没法处理。如果要分词,那么没必要转换成拼音。
做中文 NLP 的时候,大家为啥不用拼音? 的其他答案 点击这里
1
相关话题
为什么nlp没有像cv四小龙一样的创业公司?
从人工智能技术的角度如何评价 Google home、Amazon Echo、Rokid 这三款产品?
AI 都学会看论文了,科研工作者会被淘汰么?
NLP文本匹配问题的本质是不是 对于要预测的句子,遍历候选句子 从训练数据集里寻找最相似的pair?
如何看待Yoav Goldberg 怒怼来自MILA的GAN for NLG的paper?
如何看待 Daniel Povey 离开 JHU 后加入小米?
自然语言处理方向研究生好找工作吗?
如果推出一款有「滤镜」功能的写作软件,修饰平庸的文字,会有市场吗?
深度学习attention机制中的Q,K,V分别是从哪来的?
深度学习attention机制中的Q,K,V分别是从哪来的?
前一个讨论
虚拟电话号存在的意义到底是什么?
下一个讨论
JavaScript 有必要缓存 for 循环中的 Array.length 吗?
相关的话题
做中文 NLP 的时候,大家为啥不用拼音?
刷leetcode使用python还是c++?
BERT模型可以使用无监督的方法做文本相似度任务吗?
transformer 为什么使用 layer normalization,而不是其他的归一化方法?
主题模型(topic model)到底还有没有用,该怎么用?
2021年人工智能领域有哪些关键性进展和突破?
有哪些利用搜索引擎(Search Engine)辅助自然语言处理任务(NLP)的论文?
在中文 NLP 等论文中,应该如何翻译 token 这个词?
国内做NLP业务的香侬科技值得去吗?
为什么Bert中的CLS在未fine tune时作为sentence embedding性能非常糟糕?
Transformer中的Mask矩阵已经有顺序了,能去掉position embedding吗?
nlp有哪些值得完整实现一遍的算法?
BERT模型可以使用无监督的方法做文本相似度任务吗?
2021 年了,机器/深度学习还有哪些坑比较好挖?
现在的BERT等语言模型,最快训练要多久?
如何评价openai的新工作DALL·E?
深度学习中,模型大了好还是小了好呢?
NLP 中 prompt learning 有哪些可能的天生缺陷?目前有什么样的方法来解决这样的缺陷?
在文本分类任务中,有哪些论文中很少提及却对性能有重要影响的tricks?
nlp有哪些值得完整实现一遍的算法?
请问下大家训练 SimCSE 时, loss 有没有这样的情况?
如何用自然语言处理判断一句话是否符合中文口语习惯?
知识图谱+nlp,有什么适合硕士独自研究的方向?
如何用自然语言处理判断一句话是否符合中文口语习惯?
隐私计算、计算机视觉、自然语言处理三者中,哪个研究起来更有前途?
单bert可以用来做文本相似度计算任务吗?
基于对比学习(Contrastive Learning)的文本表示模型【为什么】能学到语义【相似】度?
在中文 NLP 等论文中,应该如何翻译 token 这个词?
如何评价微软机器翻译在 WMT2017 中英翻译达到「人类水平」?
如何理解attention中的Q,K,V?
服务条款
联系我们
关于我们
隐私政策
© 2024-07-03 - tinynew.org. All Rights Reserved.
© 2024-07-03 - tinynew.org. 保留所有权利