首页
查找话题
首页
做中文 NLP 的时候,大家为啥不用拼音?
做中文 NLP 的时候,大家为啥不用拼音? 第1页
1
wu-wo-cao 网友的相关建议:
首先这引入了两个新问题,多音字问题。同音字问题。然后。。。这还是要分词。所以意义在哪里。
maigo 网友的相关建议:
该从哪里开始吐槽呢?
给汉语文本注音本身就是一项颇有难度的NLP课题。
NLP中的通用方法是以「词」为单位的。把汉字转换成拼音之后,如果依然是以字为单位,那么还是没法处理。如果要分词,那么没必要转换成拼音。
做中文 NLP 的时候,大家为啥不用拼音? 的其他答案 点击这里
1
相关话题
NLP 方向在国内清北读博还是国外?
word2vec 相比之前的 Word Embedding 方法好在什么地方?
什么是狄利克雷分布?狄利克雷过程又是什么?
cv/nlp等方向的就业困难是全球性的吗?
cv/nlp等方向的就业困难是全球性的吗?
如何看待 Daniel Povey 离开 JHU 后加入小米?
主题模型(topic model)到底还有没有用,该怎么用?
Word2vec 翻译到另一种语言,其向量空间之间的映射会不会是线性的?
多模态方面,有哪些牛组值得我们follow他们的工作?
如何评价1700亿参数的GPT-3?
前一个讨论
虚拟电话号存在的意义到底是什么?
下一个讨论
JavaScript 有必要缓存 for 循环中的 Array.length 吗?
相关的话题
国内做NLP业务的香侬科技值得去吗?
请问刘知远老师提供的网易新闻标注数据集开源吗?
transformer中的Q,K,V到底是什么?
自然语言处理怎么最快入门?
AI 都学会看论文了,科研工作者会被淘汰么?
做底层 AI 框架和做上层 AI 应用,哪个对自己的学术水平(或综合能力)促进更大?
如何评价MSRA视觉组最新对spatial attention mechanism分析论文?
谷歌翻译原理是什么,从语言A到B,中间是否要翻译成中介语言C(如英语)?
AI 都学会看论文了,科研工作者会被淘汰么?
word2vec 相比之前的 Word Embedding 方法好在什么地方?
Pytorch有什么节省显存的小技巧?
2020-2021年NLP有什么核心技术的更迭吗?或者有什么推动领域发展的paper吗?
Bert中的词向量各向异性具体什么意思啊?
BERT可以用于文本聚类吗?
如何看待Yoav Goldberg 怒怼来自MILA的GAN for NLG的paper?
有哪些利用搜索引擎(Search Engine)辅助自然语言处理任务(NLP)的论文?
神经网络中 warmup 策略为什么有效;有什么理论解释么?
不觉得最大熵原理很奇怪吗?
没有顶会的CV/NLP方向的博士生毕业出路在哪里?
如何看待NLP领域最近比较火的prompt,能否借鉴到CV领域?
为什么Transformer要用LayerNorm?
NLP现在就业是否没有前途?
NLP 方向在国内清北读博还是国外?
如何看待多模态transformer,是否会成为多模态领域的主流?
nlp有哪些值得完整实现一遍的算法?
不觉得最大熵原理很奇怪吗?
为什么中文 NLP 数据集这么少?
做底层 AI 框架和做上层 AI 应用,哪个对自己的学术水平(或综合能力)促进更大?
如何评价MSRA视觉组最新对spatial attention mechanism分析论文?
自然语言处理是计算机实现通用人工智能的最难挑战吗?
服务条款
联系我们
关于我们
隐私政策
© 2025-04-16 - tinynew.org. All Rights Reserved.
© 2025-04-16 - tinynew.org. 保留所有权利