首页
查找话题
首页
做中文 NLP 的时候,大家为啥不用拼音?
做中文 NLP 的时候,大家为啥不用拼音? 第1页
1
wu-wo-cao 网友的相关建议:
首先这引入了两个新问题,多音字问题。同音字问题。然后。。。这还是要分词。所以意义在哪里。
maigo 网友的相关建议:
该从哪里开始吐槽呢?
给汉语文本注音本身就是一项颇有难度的NLP课题。
NLP中的通用方法是以「词」为单位的。把汉字转换成拼音之后,如果依然是以字为单位,那么还是没法处理。如果要分词,那么没必要转换成拼音。
做中文 NLP 的时候,大家为啥不用拼音? 的其他答案 点击这里
1
相关话题
验证集loss上升,准确率却上升该如何理解?
为什么Transformer要用LayerNorm?
有哪些令你印象深刻的魔改transformer?
NLP现在就业是否没有前途?
2022 年人工智能领域的发展趋势是什么?你都有哪些期待?
如果推出一款有「滤镜」功能的写作软件,修饰平庸的文字,会有市场吗?
为什么 Google 翻译只重算法不重语言学的语法结构和规则?
硕士方向,选择迁移学习还是自然语言处理?
如何评价最近火热的对比学习,会引领预训练模型新的范式嘛?
如何看待FAIR提出的8-bit optimizer:效果和32-bit optimizer相当?
前一个讨论
虚拟电话号存在的意义到底是什么?
下一个讨论
JavaScript 有必要缓存 for 循环中的 Array.length 吗?
相关的话题
刷leetcode使用python还是c++?
word2vec 相比之前的 Word Embedding 方法好在什么地方?
国内做NLP业务的香侬科技值得去吗?
国内做NLP业务的香侬科技值得去吗?
不觉得最大熵原理很奇怪吗?
如何看待微软小冰写的诗?
研究推荐系统要对NLP很了解吗?
为什么Bert中的CLS在未fine tune时作为sentence embedding性能非常糟糕?
做底层 AI 框架和做上层 AI 应用,哪个对自己的学术水平(或综合能力)促进更大?
BERT可以用于文本聚类吗?
NLP领域,你推荐哪些综述性的文章?
什么是狄利克雷分布?狄利克雷过程又是什么?
如何看待微软小冰写的诗?
如何评价 2021 年 12 月新改版的知识引擎 magi.com?
什么是狄利克雷分布?狄利克雷过程又是什么?
Transformer中的Mask矩阵已经有顺序了,能去掉position embedding吗?
有哪些令你印象深刻的魔改transformer?
2021 年了,机器/深度学习还有哪些坑比较好挖?
你实践中学到的最重要的机器学习经验是什么?
为什么Transformer适合做多模态任务?
2021年人工智能领域有哪些关键性进展和突破?
数据挖掘、机器学习、自然语言处理这三者是什么关系?这几个怎么入门啊?
为什么编程语言语法的设计不往缩小与自然语言的差别的方向发展,或者说在这个方向发展得这么慢呢?
如何评价MSRA视觉组最新对spatial attention mechanism分析论文?
transformer 为什么使用 layer normalization,而不是其他的归一化方法?
应届硕士毕业生如何拿到知名互联网公司算法岗(机器学习、数据挖掘、深度学习) offer?
自然语言处理方向研究生好找工作吗?
深度学习领域,你心目中 idea 最惊艳的论文是哪篇?
为什么 BERT 的 intermediate_size 这么大?
当前深度学习理论基础薄弱是否意味着我们应该放弃深度学习应用(计算机视觉、自然语言处理)?
服务条款
联系我们
关于我们
隐私政策
© 2025-05-30 - tinynew.org. All Rights Reserved.
© 2025-05-30 - tinynew.org. 保留所有权利