百科问答小站 logo
百科问答小站 font logo



自己学习深度学习时,有哪些途径寻找数据集? 第1页

  

user avatar   ji-qi-zhi-xin-65 网友的相关建议: 
      

现如今构建人工智能或机器学习系统比以往任何时候都要更加容易。普遍存在的尖端开源工具如 TensorFlow、Torch 和 Spark,再加上通过 AWS 的大规模计算力、Google Cloud 或其他供应商的云计算,这些都意味着你可以在下午休闲时间使用笔记本电脑去训练出最前沿的机器学习模型。

虽然不算是人工智能训练的最前沿,但人工智能的无名英雄确实就是数据,许多许多标注或未标注的数据。研究部门和公司也都认识到数据民主化是加快人工智能的必要步骤。

然而,涉及到机器学习或人工智能的大多数产品强烈依赖于那些通常没有开放的私有数据集,而本文将指出解决这种困境的办法。

事实上,我们很难用一篇文章来说明哪些开放数据集是有用的,因为那些有用的开放数据集必须是可概念证明的,而什么数据集对产品或确认特征是有用的,在你收集你自己所有数据之前是不知道的。

重要的是,如果数据集有良好的表现并不能保证其训练的机器学习系统在实际产品场景中表现良好。许多人在构建人工智能系统时常常忘了构建一个新人工智能解决方案或产品最困难的部分不是人工智能本身或算法,通常最困难的地方是数据收集和标注。标准数据集可以作为验证或构建更优良解决办法的良好起点。

计算机视觉

MNIST: 最通用的健全检查。25x25 的数据集,中心化,B&W 手写数字。这是个容易的任务——但是在 MNIST 有效,不等同于其本身是有效的。 地址:pjreddie.com/projects/m

CIFAR 10 & CIFAR 100: 32x32 彩色图像。虽不再常用,但还是用了一次,可以是一项有趣的健全检查。 地址:cs.toronto.edu/~kriz/ci

ImageNet: 新算法实际上的图像数据集。很多图片 API 公司从其 REST 接口获取标签,这些标签被怀疑与 ImageNet 的下一级 WordNet 的 1000 个范畴很接近。 地址:image-net.org/

LSUN: 场景理解具有很多辅助任务(房间布置评估、显著性预测等)和一个相关竞争。 地址:lsun.cs.princeton.edu/2

PASCAL VOC: 通用图像分割/分类:对于构建真实世界的图像注释毫无用处,对于基线则意义重大。 地址:host.robots.ox.ac.uk/pa

SVHN: 来自谷歌街景视图(Google Street View)的门牌号数据集。把这想象成荒野之中的周期性 MNIST。 地址:ufldl.stanford.edu/hous

MS COCO: 带有一个相关性竞争的通用图像理解/字幕。 地址:mscoco.org/

Visual Genome: 非常详细的视觉知识库,并带有 100K 图像的深字幕。 地址:visualgenome.org/

Labeled Faces in the Wild:通过名称标识符,已经为被裁剪的面部区域(用 Viola-Jones)打了标签。现有人类的子集在数据集中有两个图像。对于这里做面部匹配系统训练的人来说,这很正常。 地址:vis-www.cs.umass.edu/lf

自然语言 文本分类数据集(2015 年来自 Zhang 等人):一个用于文本分类的合 8 个数据集为 1 个的大型数据集。这些是用于新文本分类的最常被报道的基线。样本大小从 120K 到 3.6M, 问题从 2 级到 14 级。数据集来自 DBPedia、Amazon、Yelp、Yahoo!、Sogou 和 AG。 地址drive.google.com/drive/

WikiText:来自由 Salesforce MetaMind 精心策划的维基百科文章中的大型语言建模语料库。 地址:metamind.io/research/th

Question Pairs:从包含重复/语义相似性标签的 Quora 释放出来的第一个数据集。 地址:data.quora.com/First-Qu

SQuAD: 斯坦福大学问答数据集(The Stanford Question Answering Dataset)——一个被广泛应用于问题回答和阅读理解的数据集,其中每个问题的答案形式是文本的一个片段或碎片。 地址:rajpurkar.github.io/SQu

CMU Q/A Dataset: 手动生成的仿真陈述问题/回答与维基百科文章的难度评级相对应。 地址:cs.cmu.edu/~ark/QA-data

Maluuba Datasets: 用于状态性自然语言理解研究的人工生成的精密数据集。 地址:datasets.maluuba.com/

Billion Words: 大型,有统一目标的语言建模数据集。常被用来训练诸如 word2vec 或 Glove 的分布式词表征。 地址:statmt.org/lm-benchmark

Common Crawl: PB 级规模的网络爬行——常被用来学习词嵌入。可从 Amazon S3 上免费获取。由于它是 WWW 的抓取,同样也可以作为网络数据集来使用。 地址:commoncrawl.org/the-dat

bAbi: 来自 FAIR(Facebook AI Research)的合成式阅读理解与问答数据集。 地址:research.fb.com/project

The Children’s Book Test:从来自古登堡计划的童书中提取(问题+上下文,回答)组的基线。这对问题回答、阅读理解和仿真陈述查询有用。 地址:research.fb.com/project

Stanford Sentiment Treebank: 标准的情感数据集,在每一个句子解析树的节点上带有细腻的情感注解。 地址:nlp.stanford.edu/sentim

20 Newsgroups: 文本分类经典数据集中的一个。通常可用作纯分类或任何 IR/索引算法的基准。 地址:qwone.com/~jason/20News

Reuters: 旧的,纯粹基于分类的数据集与来自新闻专线的文本。常用于教程。 地址:archive.ics.uci.edu/ml/

IMDB:一个用于二元情感分类的更旧更小的数据集。 地址:ai.stanford.edu/~amaas/

UCI’s Spambase: 来自著名的 UCI 机器学习库较久的经典垃圾电子邮件数据集。由于数据集的策划细节,这可以是一个学习个性化过滤垃圾邮件的有趣基线。 地址:archive.ics.uci.edu/ml/

语音 大多数语音识别数据集是有所有权的,这些数据为收集它们的公司带来了大量的价值,所以在这一领域里,许多可用的数据集都是比较旧的。

2000 HUB5 English: 仅仅只包含英语的语音数据,最近百度发表的论文《深度语音:扩展端对端语音识别(Deep Speech: Scaling up end-to-end speech recognition)》就是使用了该语音数据集。 地址:catalog.ldc.upenn.edu/L

LibriSpeech:包括文本和语音的有声读物数据集。它是近 500 小时由多人朗读清晰的各类有声读物数据集,且由包含文本和语音的书籍章节组织起结构。 地址:openslr.org/12/

VoxForge:带口音的语音清洁数据集,特别是对于如期望对不同口音或腔调的语音有鲁棒性需求的系统很有用。 地址:voxforge.org/

TIMIT:只包含英语的语音识别数据集。 地址:catalog.ldc.upenn.edu/L

CHIME:包含噪声的语音识别数据集。该数据集包含真实、模拟和清洁的语音记录。实际上是记录四个说话者在四个噪声源的情况下近 9000 份记录,模拟数据是在结合话语行为和清洁无噪语音记录的多环境下生成的。 地址:spandh.dcs.shef.ac.uk/c

TED-LIUM:TED 演讲的语音转录数据集。1495 份 TED 演讲的语音记录,并且这些语音记录有对应的全文本。 地址:www-lium.univ-lemans.fr 推荐和排序系统

Netflix Challenge:第一个主要 Kaggle 风格的数据库。因为存在隐私问题,只能非正式地获得授权。 地址:netflixprize.com/

MovieLens:各种电影的评论数据库,通常用于基线协同过滤(collaborative filtering baselines)。 地址:grouplens.org/datasets/

Million Song Dataset:在 Kaggle 上大量、富元数据(metadata-rich)、开源的数据集,有利于人们试验混合推荐系统(hybrid recommendation systems)。 地址:kaggle.com/c/msdchallen

Last.fm:音乐推荐数据集,该数据集能有权访问底层社交网络和其他元数据,而这样的数据集正对混合系统有巨大的作用。 地址:grouplens.org/datasets/ 网络和图表

Amazon Co-Purchasing 和 Amazon Reviews:从亚马逊以及相关产品评论数据网络爬取的如「用户买了这个同时也会买哪个」这样的语句。适合在互联网中进行推荐系统的测试。 地址:snap.stanford.edu/data/#snap.stanford.edu/data/

Friendster Social Network Dataset:在 Friendster 的重心转入到游戏网站之前,这家网站发布了包含 103,750,348 个用户好友列表的匿名数据集。 地址:archive.org/details/fri 地理测绘数据库

OpenStreetMap:免费许可的全球矢量数据集。其包含了旧版的美国人口统计局的 TIGER 数据。 地址:wiki.openstreetmap.org/

Landsat8:整个地球表面的卫星拍摄数据,每隔几周会更新一次。 地址:landsat.usgs.gov/landsa

NEXRAD:多普雷达扫描的美国大气环境。 地址:ncdc.noaa.gov/data-acce 人们常常认为解决一个数据集上的问题就相当于对产品进行了一次完整的审视。因为我们可以使用这些数据集进行验证或证明一个概念,但是也不要忘了测试模型或原型是如何获取新的和更实际的数据来提高运算效果,获得优良产品的。数据驱动的成功公司通常从他们收集新数据、私有数据的能力中获得力量,从而以一种具有竞争力的方式提高他们的表现。 参考链接:medium.com/startup-grin


user avatar   FirePKU 网友的相关建议: 
      

我补充一个最近用深度学习玩的新领域,和传统的图像或者文本有些区别,是城市时空数据分析的相关数据。大概的思路就是把城市的地图分成n*n的小格子,然后每个格子涂上颜色表示一定的含义(比如交通流量),然后再用deep learning去预测未来的走势。具体文章可以看这篇:

Junbo Zhang, Yu Zheng, Dekang Qi. Deep Spatio-Temporal Residual Networks for Citywide Crowd Flows Prediction, In Proceedings of the 31st AAAI Conference (AAAI 2017).

下载链接: Deep Spatio-Temporal Residual Networks for Citywide Crowd Flows Prediction - Microsoft Research

用这个思路,其实各种交通数据就都可以用来玩deep learning了,下面列几个公开的出租车和公共自行车的数据集

出租车

公共自行车




  

相关话题

  CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别? 
  面试官如何判断面试者的机器学习水平? 
  神经网络中,bias有什么用,为什么要设置bias,当加权和大于某值时,激活才有意义? 
  为什么我用相同的模型,数据,超参,随机种子,在两台服务器会得到不同的结果? 
  国内 top2 高校研一在读,为什么感觉深度学习越学越懵? 
  经过足够长的时间, AlphaGo 的棋谱能收敛到一张上吗? 
  请问一下,机器学习领域的联邦学习技术,目前看到最多的是微众银行,国内还有哪些顶级专家及机构和大学? 
  2021年,ncnn发展的如何了? 
  如何开发一个自己的 TensorFlow? 
  如何评价Hinton组的新工作SimCLR? 

前一个讨论
如何看待杨振宁、姚期智放弃外国国籍,转为中国科学院院士?
下一个讨论
路边大切糕为什么这么贵?





© 2024-11-08 - tinynew.org. All Rights Reserved.
© 2024-11-08 - tinynew.org. 保留所有权利