微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Hadoop介绍

        

 

         Apache Hadoop项目是一个提供高可靠可扩展(横向)的分布式计算的开源软件平台。允许使用简单的编程模型跨计算机集群分布式处理大型数据集。它旨在从单个服务器扩展到数千台计算机,每台计算机都提供本地计算和存储。Hadoop本身不是依靠硬件来提供高可用性,而是设计用于检测和处理应用程序层的故障,从而在计算机集群之上提供高可用性服务,每个计算机都可能容易出现故障。

产生背景

        1.Hadoop最早起源于Nutch。Nutch的目的是构建一个大型的全网搜索引擎(网页抓取、索引、查询功能),但是随着抓取网页数量增加,遇到了严重的可扩展性问题(不能解决数十亿网页的存储和索引问题)
        2.2003-2004年谷歌发表的三篇论文提供了可行的解决方
                GFS(Google FileSystem)分布式文件系统,解决海量数据的存储
                MapReduce分布式计算框架,解决海量数据的计算问题
                bigtable分布式数据库解决海量数据的快速查找
        3.Doug Cutting将Google 的三篇文章用Java重新实现。
                GFS——HDFS

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐