程序员人生 网站导航

1亿的图片+视频,雅虎发布超大Flickr数据集

栏目:互联网时间:2014-09-16 17:35:08

【编者按】为了满足广大研究人员的实验需求,雅虎发布了一个巨型的Flick数据集,为图像、视频的处理和分析提供了可观的资源。同时,该公司还准备在今年夏末于AWS上建立分析工具。


免费订阅“CSDN云计算”微信公众号,实时掌握第一手云中消息!

CSDN作为国内最专业的云计算服务平台,提供云计算、大数据、虚拟化、数据中心、OpenStack、CloudStack、Hadoop、Spark、机器学习、智能算法等相关云计算观点,云计算技术,云计算平台,云计算实践,云计算产业资讯等服务。


以下为译文

雅虎已经发布了一个巨大的数据集为研究人员进行实验。这个数据集由1亿图片和70万视频的URL组成,同时也包含了它们的元数据。在不久的将来,一个更大的包含音频和视频的由超级计算机处理的数据集将能被使用。


Yahoo Flickr Creative Commons当下已有1亿内容,其中包含了9930图片和70万视频的URL以及与之相关的元数据(标题、摄像机类型、描述、标签)。雅虎表示,大约4900万的图片都是地理标记的,各种评论、喜好和社交数据都可以借助Flickr API实现可用。

毫无疑问,对于那些分析图像为了学习新东西或是尝试一些新计算机视觉算法的人来说,这是一个相当可观的资源。新的人工智能算法和技术已经兴起多年,其中大部分算法和技术的灵感来源于访问大量在线图像和视频等方式。然而,一般情况下,对于那些不容易获得内容的研究人员或是公司而言(也就是说,除了谷歌、Facebook、微软和雅虎的其他人),他们不得不通过人工拼凑或其他的方式搜集数据。

据说,尤其是谷歌和雅虎,在各种大数据集贡献上已经颇有建树,尤其是对训练自然语言处理模型非常有用的文本数据。

仅仅为了测试新图像数据集中的一个可能功能,雅虎正在筹备一个比赛,这个比赛能构建无需地理定位就能很容易识别照片和视频拍摄地点的系统。其中,比赛的训练集包括500万的照片和2.5万的视频。

雅虎还与国际计算机科学研究所和Lawrence Livermore国家实验室合作,共同处理一个专用超级计算机(Cray Catalyst,针对数据密集型计算设计)中的数据,并从中提取不同音频及视频特征。雅虎声称的超过50TB的数据集(原始的100万URL图片的数据大约只有12GB)和分析该数据集的工具将会于今年夏季末在亚马逊网络服务器上投入使用。

原文链接:Yahoo releases massive Flickr dataset, and a supercomputer steps up to analyze it(编译/史臣敏 责编/仲浩)
------分隔线----------------------------
------分隔线----------------------------

最新技术推荐