首页
查找话题
首页
做中文 NLP 的时候,大家为啥不用拼音?
做中文 NLP 的时候,大家为啥不用拼音? 第1页
1
wu-wo-cao 网友的相关建议:
首先这引入了两个新问题,多音字问题。同音字问题。然后。。。这还是要分词。所以意义在哪里。
maigo 网友的相关建议:
该从哪里开始吐槽呢?
给汉语文本注音本身就是一项颇有难度的NLP课题。
NLP中的通用方法是以「词」为单位的。把汉字转换成拼音之后,如果依然是以字为单位,那么还是没法处理。如果要分词,那么没必要转换成拼音。
做中文 NLP 的时候,大家为啥不用拼音? 的其他答案 点击这里
1
相关话题
2022 年人工智能领域的发展趋势是什么?你都有哪些期待?
在中文 NLP 等论文中,应该如何翻译 token 这个词?
在NLP上,CNN、RNN(认为LSTM等变体也是RNN)、最简单全连结MLP,三者相比,各有何优劣?
如何理解Inductive bias?
预训练模型的训练任务在 MLM 之外还有哪些有效方式?
如果用机器学习的理论来理解人的行为,会有什么发现?
如何评价浪潮发布的2457亿参数源1.0智能大模型?与GPT-3相比如何?处于AI模型领域什么水平?
如何评价微软机器翻译在 WMT2017 中英翻译达到「人类水平」?
如何理解深度学习源码里经常出现的logits?
如果推出一款有「滤镜」功能的写作软件,修饰平庸的文字,会有市场吗?
前一个讨论
虚拟电话号存在的意义到底是什么?
下一个讨论
JavaScript 有必要缓存 for 循环中的 Array.length 吗?
相关的话题
如何评价1700亿参数的GPT-3?
NLP文本匹配问题的本质是不是 对于要预测的句子,遍历候选句子 从训练数据集里寻找最相似的pair?
如何看待Yoav Goldberg 怒怼来自MILA的GAN for NLG的paper?
多模态方面,有哪些牛组值得我们follow他们的工作?
如何评价微软亚洲研究院提出的LightRNN?
为什么 Bert 的三个 Embedding 可以进行相加?
word2vec 相比之前的 Word Embedding 方法好在什么地方?
为什么nlp没有像cv四小龙一样的创业公司?
深度学习应用在哪些领域让你觉得「我去,这也能行!」?
在中文 NLP 等论文中,应该如何翻译 token 这个词?
深度学习中,模型大了好还是小了好呢?
word2vec有什么应用?
当前深度学习理论基础薄弱是否意味着我们应该放弃深度学习应用(计算机视觉、自然语言处理)?
如何评价openai的新工作DALL·E?
如何看待Transformer在CV上的应用前景,未来有可能替代CNN吗?
如何看待 ICLR2021 的拒稿被评为 ACL2021 的 Best Paper?
如果用机器学习的理论来理解人的行为,会有什么发现?
NLP领域,你推荐哪些综述性的文章?
Word2vec 翻译到另一种语言,其向量空间之间的映射会不会是线性的?
BERT可以用于文本聚类吗?
现在的BERT等语言模型,最快训练要多久?
谷歌翻译原理是什么,从语言A到B,中间是否要翻译成中介语言C(如英语)?
为什么 Bert 的三个 Embedding 可以进行相加?
如何评价微软亚洲研究院提出的LightRNN?
word2vec 相比之前的 Word Embedding 方法好在什么地方?
BERT可以用于文本聚类吗?
如何看待华为 4 月 25 日发布的盘古智能大模型?在这个行业处于什么水平?
如何评价微软机器翻译在 WMT2017 中英翻译达到「人类水平」?
主题模型(topic model)到底还有没有用,该怎么用?
有哪些深度学习效果不如传统方法的经典案例?
服务条款
联系我们
关于我们
隐私政策
© 2025-06-19 - tinynew.org. All Rights Reserved.
© 2025-06-19 - tinynew.org. 保留所有权利