注册
登录
专栏名称:
机器之心
专业的人工智能媒体和产业服务平台
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
爱可可-爱生活
·
//@爱可可-爱生活:欢迎参与~-20240 ...
·
14 小时前
爱可可-爱生活
·
《爱可可微博热门分享(9.3)》 ...
·
3 天前
爱可可-爱生活
·
欢迎收听「走近具身智能」系列节目,带你了解具 ...
·
6 天前
爱可可-爱生活
·
通过提出弱模量和强模量描述源目标可迁移性,给 ...
·
6 天前
爱可可-爱生活
·
WavTokenizer设计宽广的单层向量量 ...
·
6 天前
今天看啥
›
专栏
›
机器之心
观点 | 用于文本的最牛神经网络架构是什么?
机器之心
·
公众号
·
AI
· 2017-11-19 12:33
文章预览
选自GitHub 作者:Nadbor Drozd 机器之心编译 参与:路雪、刘晓坤 用于文本的最牛神经网络架构是什么?数据科学家 Nadbor 在多个文本分类数据集上对大量神经网络架构和 SVM + NB 进行了测试,并展示了测试结果。 去年,我写了一篇关于使用词嵌入如 word2vec 或 GloVe 进行文本分类的文章(http://nadbordrozd.github.io/blog/2016/05/20/text-classification-with-word2vec/)。在我的基准测试中,嵌入的使用比较粗糙,平均文档中所有单词的词向量,然后将结果放进随机森林。不幸的是,最后得出的分类器除了一些特殊情况(极少的训练样本,大量的未标注数据),基本都不如优秀的 SVM,尽管它比较老。 当然有比平均词向量更好的使用词嵌入的方式,上个月我终于着手去做这件事。我对 arXiv ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
爱可可-爱生活
·
//@爱可可-爱生活:欢迎参与~-20240907061509
14 小时前
爱可可-爱生活
·
《爱可可微博热门分享(9.3)》 爱可可微博热门分享(9.3)-20240903233236
3 天前
爱可可-爱生活
·
欢迎收听「走近具身智能」系列节目,带你了解具身智能的精彩世界!第-20240901180034
6 天前
爱可可-爱生活
·
通过提出弱模量和强模量描述源目标可迁移性,给出对应的自适应学习理-20240901051023
6 天前
爱可可-爱生活
·
WavTokenizer设计宽广的单层向量量化编码簿空间,配合上-20240901054839
6 天前
观南昌360
·
最新消息!这个大型产业园项目!预计年底前运营!
5 天前