1. HADOOP背景介绍

1.1 什么是HADOOP

1.HADOOP是apache旗下的一套开源软件平台
2.HADOOP提供的功能:利用服务器集群,根据用户的自定义业务逻辑,对海量数据进行分布式处理
3.HADOOP的核心组件有 1.HDFS(分布式文件系统)
2.YARN(运算资源调度系统)
3.MAPREDUCE(分布式运算编程框架)

4.广义上来说,HADOOP通常是指一个更广泛的概念——HADOOP生态圈

Hadoop hive hbase flume kafka sqoop spark flink …….

1.2 HADOOP产生背景

1.HADOOP最早起源于Nutch。Nutch的设计目标是构建一个大型的全网搜索引擎,包括网页抓取、索引、查询等功能,但随着抓取网页数量的增加,遇到了严重的可扩展性问题——如何解决数十亿网页的存储和索引问题。
2.2003年、2004年谷歌发表的两篇论文为该问题提供了可行的解决方案。

——分布式文件系统(GFS),可用于处理海量网页的存储

——分布式计算框架MAPREDUCE,可用于处理海量网页的索引计算问题。

   3.Nutch的开发人员完成了相应的开源实现HDFS和MAPREDUCE,并从Nutch中剥离成为独立项目HADOOP,到2008年1月,HADOOP成为Apache顶级项目,迎来了它的快速发展期。

1.3 HADOOP在大数据、云计算中的位置和关系

1.云计算是分布式计算、并行计算、网格计算、多核计算、网络存储、虚拟化、负载均衡等传统计算机技术和互联网技术融合发展的产物。借助IaaS(基础设施即服务)、PaaS(平台即服务)、SaaS(软件即服务)等业务模式,把强大的计算能力提供给终端用户。

    2.现阶段,云计算的两大底层支撑技术为“虚拟化”和“大数据技术”

    3.而HADOOP则是云计算的PaaS层的解决方案之一,并不等同于PaaS,更不等同于云计算本身。 

前言

最近想学习下大数据,有点急于求成,于是去网上找了各种培训机构的视频,发现大都质量不佳,理论基本不说或者简单讲下,然后教你照猫画虎的敲代码,出了问题都没法分析。最后还是找了厦门大学的公开课从理论开始稳扎稳打的学习了。

一 Hadoop起源

Hadoop的理论起源主要来自谷歌公司的三大论文,并迅速应用于全球各大互联网公司。因此,学习大数据Hadoop是绕不开的一个知识点。今年来,大数据的兴起其实来自于计算机技术的发展,物联网技术产生了大量的数据,云技术使得计算机存储与运算资源更加普及,因此大数据技术应运而出,用以解决大量数据的存储与计算的问题。

二 Hadoop生态圈

学习Hadoop,需要知道Hadoop生态圈中各个项目的功能与作用,为何要用开发这种新项目,而不使用已有项目实现这种功能。

2.1 HDFS

Hadoop的底层文件系统,与传统文件系统不同在于它是分布式的。同时与已有的分布式文件系统相比,它又有着旧分布式文件系统没有的优点。如:高可用性,高可靠性,吞吐量大,能使用廉价服务器构建,可通过不断增加机器数来进行拓展。具体实现在HDFS文章中记录。

2.2 HBase

构建在HDFS之上的分布式数据库系统。是一种基于列的NoSQL数据库,从另一个角度看也能看成键值对的NoSQL数据库。与传统关系型数据库相比,最大的优势在于可通过增加机器进行横向扩展,并且能使用廉价服务器。

2.3 Hive

一种分布式数据仓库,可以导入外部数据后用类SQL语言进行操作。一般用于历史数据的查询与分析。与HBase不同,HBase常用于实时的交互式查询。

2.4 MapRuduce

一种分布式计算框架,MapRuce本来就是一种计算模型的名称。核心思想是“分而治之”,能将计算分解成多个小计算,由多个机器同时计算。适合离线批处理。

2.5 Storm

一种流式计算框架,MapRuce适合批处理,无法完成流式数据的处理,因此开发出流式处理框架。

2.6 常见大数据处理需求

"color: #ff0000">三 Hadoop安装

1.准备。同一局域网的Linux服务器数台,我是用我的游戏本同时开了3个虚拟机代替的。

2.Linux里创建hadoop用户,专门负责Hadoop项目,便于管理与权限划分。

3.安装JDK,下载Hadoop时官方会指明JDK版本需求,设置JDK环境变量

4.安装SSH并设置免密登录。因为HDFS的NameNode与其他DateNode等节点的通讯与管理就是基于SSH协议的。并且将要使用的机器域名写入hosts文件,方便命名。

5.去官网下载并解压Hadoop。修改hadoop配置文件,位于hadoop/etc/hadoop /下面,分别有:

"htmlcode">

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://Master:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
</configuration>

"htmlcode">

<configuration>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>Master:50090</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>
</configuration>

"htmlcode">

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>Master:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>Master:19888</value>
    </property>
</configuration>

"htmlcode">

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>Master:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>Master:19888</value>
    </property>
</configuration>

1.配置好以后将Hadoop文件从主节点复制到各个从节点,Hadoop的HADFS与MapReduce就安装完成了。(CentOs系统需要关闭相应防火墙)

四 Hadoop生态圈其他组件安装

看看网友博客和官方文档差不多就会了,基本一个形式。下载解压-配置环境变量-配置组件的配置文件,基本都是xxxx-env.sh,xxx-site.sh,xxx-core.sh,slave,work这种,在里面按照需求配置参数就好了,具体参数意思和必须要配置的参数看看官方文档也就懂了(滑稽)。

总结

以上所述是小编给大家介绍的Hadoop介绍与安装配置方法,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对网站的支持!
如果你觉得本文对你有帮助,欢迎转载,烦请注明出处,谢谢!

广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!

《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线

暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。

艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。

《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。