首页
查找话题
首页
做中文 NLP 的时候,大家为啥不用拼音?
做中文 NLP 的时候,大家为啥不用拼音? 第1页
1
wu-wo-cao 网友的相关建议:
首先这引入了两个新问题,多音字问题。同音字问题。然后。。。这还是要分词。所以意义在哪里。
maigo 网友的相关建议:
该从哪里开始吐槽呢?
给汉语文本注音本身就是一项颇有难度的NLP课题。
NLP中的通用方法是以「词」为单位的。把汉字转换成拼音之后,如果依然是以字为单位,那么还是没法处理。如果要分词,那么没必要转换成拼音。
做中文 NLP 的时候,大家为啥不用拼音? 的其他答案 点击这里
1
相关话题
NLP文本分类的本质是不是其实是找相似,对于要分类的句子,在训练集里找最相似的句子?
在CV/NLP/DL领域中,有哪些修改一行代码或者几行代码提升性能的算法?
为什么Transformer要用LayerNorm?
国内外厂商发布的各类 AI 智能音箱,优缺点分别是什么?
基于对比学习(Contrastive Learning)的文本表示模型【为什么】能学到语义【相似】度?
验证集loss上升,准确率却上升该如何理解?
AI领域的灌水之风如何破局?
如何评价openai的新工作DALL·E?
2021 年了,机器/深度学习还有哪些坑比较好挖?
如何看待微软小冰写的诗?
前一个讨论
虚拟电话号存在的意义到底是什么?
下一个讨论
JavaScript 有必要缓存 for 循环中的 Array.length 吗?
相关的话题
2022 年人工智能领域的发展趋势是什么?你都有哪些期待?
单bert可以用来做文本相似度计算任务吗?
多模态方面,有哪些牛组值得我们follow他们的工作?
自然语言处理怎么最快入门?
为什么Bert中的CLS在未fine tune时作为sentence embedding性能非常糟糕?
应届硕士毕业生如何拿到知名互联网公司算法岗(机器学习、数据挖掘、深度学习) offer?
如何评价1700亿参数的GPT-3?
基于深度学习的自然语言处理在 2016 年有哪些值得期待的发展?
NLP文本分类的本质是不是其实是找相似,对于要分类的句子,在训练集里找最相似的句子?
做底层 AI 框架和做上层 AI 应用,哪个对自己的学术水平(或综合能力)促进更大?
如何看待NLP领域最近比较火的prompt,能否借鉴到CV领域?
什么是狄利克雷分布?狄利克雷过程又是什么?
如何理解attention中的Q,K,V?
做中文 NLP 的时候,大家为啥不用拼音?
NLP 中 prompt learning 有哪些可能的天生缺陷?目前有什么样的方法来解决这样的缺陷?
为什么Bert中的CLS在未fine tune时作为sentence embedding性能非常糟糕?
现在的BERT等语言模型,最快训练要多久?
知识图谱+nlp,有什么适合硕士独自研究的方向?
从人工智能技术的角度如何评价 Google home、Amazon Echo、Rokid 这三款产品?
如何评价1700亿参数的GPT-3?
多模态方面,有哪些牛组值得我们follow他们的工作?
NLP现在就业是否没有前途?
实体提取任务中使用BERT-CRF时,CRF根据数据统计可以得到转移概率,为啥还要训练呢?
为什么中文 NLP 数据集这么少?
如何评价浪潮发布的2457亿参数源1.0智能大模型?与GPT-3相比如何?处于AI模型领域什么水平?
Transformer中的Mask矩阵已经有顺序了,能去掉position embedding吗?
如何看待2021年秋招算法岗灰飞烟灭?
graph convolutional network有什么比较好的应用task?
如何评价MSRA视觉组最新对spatial attention mechanism分析论文?
如何看待2021年哔哩哔哩拜年纪采用机器生成的假弹幕?
服务条款
联系我们
关于我们
隐私政策
© 2025-05-07 - tinynew.org. All Rights Reserved.
© 2025-05-07 - tinynew.org. 保留所有权利