首页
查找话题
首页
做中文 NLP 的时候,大家为啥不用拼音?
做中文 NLP 的时候,大家为啥不用拼音? 第1页
1
wu-wo-cao 网友的相关建议:
首先这引入了两个新问题,多音字问题。同音字问题。然后。。。这还是要分词。所以意义在哪里。
maigo 网友的相关建议:
该从哪里开始吐槽呢?
给汉语文本注音本身就是一项颇有难度的NLP课题。
NLP中的通用方法是以「词」为单位的。把汉字转换成拼音之后,如果依然是以字为单位,那么还是没法处理。如果要分词,那么没必要转换成拼音。
做中文 NLP 的时候,大家为啥不用拼音? 的其他答案 点击这里
1
相关话题
为什么计算注意力机制的时候不加偏置项?
2020年,多标签学习(multi-label)有了哪些新的进展?
为什么Transformer要用LayerNorm?
当前深度学习理论基础薄弱是否意味着我们应该放弃深度学习应用(计算机视觉、自然语言处理)?
为什么 Bert 的三个 Embedding 可以进行相加?
为什么Transformer要用LayerNorm?
当前深度学习理论基础薄弱是否意味着我们应该放弃深度学习应用(计算机视觉、自然语言处理)?
如何评价 2021 年 12 月新改版的知识引擎 magi.com?
研究推荐系统要对NLP很了解吗?
主题模型(topic model)到底还有没有用,该怎么用?
前一个讨论
虚拟电话号存在的意义到底是什么?
下一个讨论
JavaScript 有必要缓存 for 循环中的 Array.length 吗?
相关的话题
NLP 方向在国内清北读博还是国外?
Transformer是如何处理可变长度数据的?
在中文 NLP 等论文中,应该如何翻译 token 这个词?
为什么Transformer适合做多模态任务?
cv/nlp等方向的就业困难是全球性的吗?
如何评价 2015 版的 Magi 搜索引擎?
如何看待华为 4 月 25 日发布的盘古智能大模型?在这个行业处于什么水平?
为什么 BERT 的 intermediate_size 这么大?
transformer中的Q,K,V到底是什么?
Transformer中的Mask矩阵已经有顺序了,能去掉position embedding吗?
如何看待学霸君的高考机器人 Aidam 高考全国文科数学卷考了 134 分?
如何理解Inductive bias?
transformer中的Q,K,V到底是什么?
为什么不能有把中文想法直接转换成电脑程序的编程呢?
多模态方面,有哪些牛组值得我们follow他们的工作?
NLP文本分类的本质是不是其实是找相似,对于要分类的句子,在训练集里找最相似的句子?
word2vec 相比之前的 Word Embedding 方法好在什么地方?
2021 年了,机器/深度学习还有哪些坑比较好挖?
自然语言处理是计算机实现通用人工智能的最难挑战吗?
NLP文本分类的本质是不是其实是找相似,对于要分类的句子,在训练集里找最相似的句子?
如何看待2021年秋招算法岗灰飞烟灭?
如何理解深度学习源码里经常出现的logits?
如何看待微软小冰写的诗?
如何看待微软小冰写的诗?
如果推出一款有「滤镜」功能的写作软件,修饰平庸的文字,会有市场吗?
transformer 为什么使用 layer normalization,而不是其他的归一化方法?
不觉得最大熵原理很奇怪吗?
如何看待Capsule Network在NLP领域的潜力?
在CV/NLP/DL领域中,有哪些修改一行代码或者几行代码提升性能的算法?
为什么nlp没有像cv四小龙一样的创业公司?
服务条款
联系我们
关于我们
隐私政策
© 2025-06-02 - tinynew.org. All Rights Reserved.
© 2025-06-02 - tinynew.org. 保留所有权利