首页
查找话题
首页
做中文 NLP 的时候,大家为啥不用拼音?
做中文 NLP 的时候,大家为啥不用拼音? 第1页
1
wu-wo-cao 网友的相关建议:
首先这引入了两个新问题,多音字问题。同音字问题。然后。。。这还是要分词。所以意义在哪里。
maigo 网友的相关建议:
该从哪里开始吐槽呢?
给汉语文本注音本身就是一项颇有难度的NLP课题。
NLP中的通用方法是以「词」为单位的。把汉字转换成拼音之后,如果依然是以字为单位,那么还是没法处理。如果要分词,那么没必要转换成拼音。
做中文 NLP 的时候,大家为啥不用拼音? 的其他答案 点击这里
1
相关话题
如何评价 2015 版的 Magi 搜索引擎?
2021年人工智能领域有哪些关键性进展和突破?
你实践中学到的最重要的机器学习经验是什么?
深度学习领域,你心目中 idea 最惊艳的论文是哪篇?
如何理解深度学习源码里经常出现的logits?
在NLP上,CNN、RNN(认为LSTM等变体也是RNN)、最简单全连结MLP,三者相比,各有何优劣?
谷歌翻译原理是什么,从语言A到B,中间是否要翻译成中介语言C(如英语)?
《失控玩家》中的游戏有可能实现出来吗?
请问刘知远老师提供的网易新闻标注数据集开源吗?
Word2vec 翻译到另一种语言,其向量空间之间的映射会不会是线性的?
前一个讨论
虚拟电话号存在的意义到底是什么?
下一个讨论
JavaScript 有必要缓存 for 循环中的 Array.length 吗?
相关的话题
如何用一句话证明自然语言处理很难?
如何看待 Daniel Povey 离开 JHU 后加入小米?
国内外厂商发布的各类 AI 智能音箱,优缺点分别是什么?
国内较强的NLP高校实验室有哪些?
国内 top2 高校研一在读,为什么感觉深度学习越学越懵?
为什么Transformer要用LayerNorm?
Word2vec 翻译到另一种语言,其向量空间之间的映射会不会是线性的?
如何看待FAIR提出的8-bit optimizer:效果和32-bit optimizer相当?
基于深度学习的自然语言处理在 2016 年有哪些值得期待的发展?
如何看待FAIR提出的8-bit optimizer:效果和32-bit optimizer相当?
如何评价Google最新提出的gMLP:MLP模型在CV和NLP任务上均取得较好的效果?
有哪些人工智能上的事实,没有一定人工智能知识的人不会相信?
word2vec有什么应用?
如何评价 2015 版的 Magi 搜索引擎?
如何看待多模态transformer,是否会成为多模态领域的主流?
为什么 Bert 的三个 Embedding 可以进行相加?
BERT模型可以使用无监督的方法做文本相似度任务吗?
多模态方面,有哪些牛组值得我们follow他们的工作?
如何评价浪潮发布的2457亿参数源1.0智能大模型?与GPT-3相比如何?处于AI模型领域什么水平?
请问刘知远老师提供的网易新闻标注数据集开源吗?
为什么相比于计算机视觉(cv),自然语言处理(nlp)领域的发展要缓慢?
国内较强的NLP高校实验室有哪些?
有哪些令你印象深刻的魔改transformer?
如何评价MSRA视觉组最新对spatial attention mechanism分析论文?
为什么nlp没有像cv四小龙一样的创业公司?
如何理解Inductive bias?
基于深度学习的自然语言处理在 2016 年有哪些值得期待的发展?
请问下大家训练 SimCSE 时, loss 有没有这样的情况?
如何看待Capsule Network在NLP领域的潜力?
深度学习attention机制中的Q,K,V分别是从哪来的?
服务条款
联系我们
关于我们
隐私政策
© 2024-07-01 - tinynew.org. All Rights Reserved.
© 2024-07-01 - tinynew.org. 保留所有权利