Hadoop 1.2.1 单节点安装(Single Node Setup)步骤

为了使您快速体验Hadoop,可以在一台机子上安装单节点(Node)的hadoop。

相关阅读:单节点Hadoop安装过程 http://www.linuxidc.com/Linux/2013-03/80282.htm

一 安装的前提条件

1.平台要求

(1). hadoop全面支持GNU/Linux,并且已经演示过部署在GNU/Linux上超过2000个节点的集群。

(2). Win32 仅支持作为开发平台,hadoop的分布式相关功能并未在Win32 上作全面测试,因此不建议在产品环境中使用win32平台。

2.软件要求

Linux和windows上都需要安装以下软件:

(1)必须安装JavaTM 1.6.x,最好是sun的.

(2)必须安装SSH,SSHD需要开启,hadoop脚本才能管理远程实例(remote Hadoop daemons)

另外:

Windows上必须安装Cygwin.

3.安装以上软件

Ubuntu Linux上安装举例:

$sudoapt-getinstallssh
$sudoapt-getinstallrsync

windows上安装了cygwin后,还需要安装openssh.

二 下载最新稳定版hadoop 1.2.1

下载地址:http://hadoop.apache.org/core/releases.html

三 准备启动Hadoop集群(单节点)

解压缩下载的hadoop,并编辑conf/hadoop-env.sh文件,将配置项JAVA_HOM设置为你安装的java的当前根目录。

开始运行一下命令:

1 $ bin/hadoop

如果显示的是hadoop命令的帮助,则表示设置正确。

接下来,你可以操作hadoop集群了,hadoop集群有三种模式:

Local (Standalone) Mode(独立模式)

Pseudo-Distributed Mode(伪分布式模式)

Fully-Distributed Mode(分布式模式)

在这里仅介绍前两种模式,第三种模式较复杂,以后单独介绍。

四 独立模式使用

默认情况下,hadoop被配置成非分布式模式,即一个java进程,这样方便调试。

下面的命令将hadoop安装目录下的conf目录作为输入,然后将conf目录下的文件中符合给定正则表达式条件的内容找出来。输出即将内容写入指定的输出目录的文件中。

$mkdirinput
$cpconf/*.xml input
$ bin/hadoopjar hadoop-examples-*.jargrepinput output'dfs[a-z.]+'
$catoutput/*

更多详情见第2页http://www.linuxidc.com/Linux/2013-08/89377p2.htm

2019-03-28 12:54

知识点

相关教程

更多

Hadoop node 部署步骤

1.OS安装 a)RHEL 6.2 X64 i.刻录光盘安装(略) b)安装选项 i.Basic server即可 ii.设置hostname iii.安装完毕执行system-config-network,保存配置;如果网络命名:em1,修改/etc/sysconfig/network-scripts/ifcfg-em1: ONBOOT=yes 使得网络自动启动 iv.没有DNS的话编辑/etc

Ubuntu 12.10 +Hadoop 1.2.1版本集群配置

一、引言 Hadop是一种分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的威力高速运算和存储。Hadoop1.2.1版本下载地址:http://apache.dataguru.cn/hadoop/common/hadoop-1.2.1/ 相关阅读:  在Ubuntu 12.10 上安装部署Openstack http://www.

Hadoop Backup Node

要了解   Hadoop Backup Node,要从Namenode的元数据说起。    我们都知道Namenode的元数据非常重要,如果元数据损坏,所有存储在datanode中的数据都读不出来了。另外,如果Namenode的元数据比较大,那么集群的启动速度非常慢。为了解决这两个问题,Hadoop弄了一个Secondary Namenode。    Namenode的元数据:    Hadoop

单节点Hadoop安装过程

1.1.1 环境准备 本次由一台CentOS虚拟服务器搭建Hadoop平台,机器信息如表1所示: 表1 主机环境准备 为方便使用,现给出主机环境方面需要修改的地方: ● IP地址修改  IP地址位于/etc/sysconfig/network-scripts/目录中,通过vi编辑ifcfg-eth0文件修改成如下所示结构即可: [root@master network-scripts]# cd /

nutch-2.2.1 hadoop-1.2.1 hbase-0.92.1 集群部署

参考网站:http://blog.csdn.net/weijonathan/article/details/10178919    一个完整的部署过程,只是版本有所区别http://m.blog.csdn.net/blog/WeiJonathan/9251597    杨尚川的博客(nutch 分布式运行) http://qindongliang1922.iteye.com/blog/197705

nutch-2.2.1 hadoop-1.2.1 hbase-0.92.1 集群部署

原文地址:http://www.cnblogs.com/i80386/p/3540389.html 参考网站: http://blog.csdn.net/weijonathan/article/details/10178919 一个完整的部署过程,只是版本有所区别 http://m.blog.csdn.net/blog/WeiJonathan/9251597 杨尚川的博客(nutch 分布式运行)

Hadoop-1.2.1 for CentOS 6.3 64bit

1、环境说明 系统:CentOS release 6.3 64bit java:Java(TM) SE Runtime Environment (build 1.7.0_40-b43) Hadoop:1.2.1 本次实验包括:1个Master,3个Salve,节点之间局域网连接,可以相互ping通, 节点IP地址分布如下: 192.168.1.102 Master.Hadoop 192.168.1

CentOS 5.5 下配置Hadoop 0.21单节点

主要参考Apache官方文档http://hadoop.apache.org/common/docs/r0.21.0/single_node_setup.html  唯一注意的是对于CentOS默认安装后的主机名问题,默认主机名为bogon,需要在/etc/hosts中加入如下一行:  127.0.0.1 bogon.localdomain bogon  运行bin/Hadoop namenode

单节点伪分布式Hadoop的安装与配置

单节点伪分布式Hadoop的安装与配置 安装需要两个先决条件,java版本1.6以上和ssh登录本机不需要输入密码,不同版本的hadoop安装方法不同,注意要通过apache网站的匹配安装说明进行安装 1,安装java Install java rpm -ivh jdk-7u7-linux-x64.rpm [root@linux2 ~]# rm /usr/bin/java rm: remove s

CentOS 6.6下Hadoop 1.0.3单节点配置

环境:系统CentOS6.6;Hadoop版本:1.0.3;java运行环境:jdk1.6 单节点配置过程: 1.配置系统ssh:hadoop在运行过程中会用访问ssh服务,将ssh服务设置成无密码访问,这样hadoop在访问ssh服务的时候就不需要人工手动输入密码了: detail: step 1:生成密钥 [hjchaw@localhost ~]$ ssh-keygen -t rsa -P &

Hadoop环境搭建——单节点篇

自漫聊1.0发布以来,研究Hadoop也有一段时间了,目前环境已基本搭建好,规模为15台的小型集群,昨晚测试时是用wordcount统计一个1.2G的log文件,总耗时2分16秒,虽然测试文件不大,但其性能的优越性已经体现出来了。 更多Hadoop相关信息见 http://www.linuxidc.com/search.aspx?Where=Nkey&Keyword=Hadoop 更多Ha

Hadoop 解除 “Name node is in safe mode”

运行Hadoop程序时,有时候会报以下错误:  org.apache.hadoop.dfs.SafeModeException: Cannot delete /user/hadoop/input. Name node is in safe mode  这个错误应该还满常见的吧(至少我运行的时候是这样的) 那我们来分析下这个错误,从字面上来理解:  Name node is in safe mode

Hadoop 解除 “Name node is in safe mode”

之前在   Hadoop执行过程中使用了"ctrl+c"操作    再次使用hadoop时出现   “Name node is in safe mode”提示:    root@www.linuxidc.com:~/hadoop/hadoop-0.20.2# bin/hadoop fs -put conf input    put: org.apache.hadoop.hdfs

Hadoop群集中添加节点步骤

1.在新节点安装好Hadoop 2.把namenode的有关配置文件复制到该节点 3.修改masters和slaves文件,增加该节点 4.设置ssh免密码进出该节点 5.单独启动该节点上的datanode和tasktracker #hadoop-daemon.sh start datanode #hadoop-daemon.sh start tasktracker (或是重启集群start-al

社区版Federated HDFS(多Name Node)实现浅析

目前,HDFS集群的架构包括了单个Name Node和若干个Data Node。Name Node负责两方面的事情:一方面是存储和管理整个命名空间,包括创建、修改、删除和列举文件目录等文件系统级别的操作;另一方面是管理Data Node和文件块。Data Node主要负责文件块的持久化存储和远程访问。            在现有模式下,存储负载的增加对Data Node和Name Node都会造

最新教程

更多

java线程状态详解(6种)

java线程类为:java.lang.Thread,其实现java.lang.Runnable接口。 线程在运行过程中有6种状态,分别如下: NEW:初始状态,线程被构建,但是还没有调用start()方法 RUNNABLE:运行状态,Java线程将操作系统中的就绪和运行两种状态统称为“运行状态” BLOCK:阻塞状态,表示线程阻塞

redis从库只读设置-redis集群管理

默认情况下redis数据库充当slave角色时是只读的不能进行写操作,如果写入,会提示以下错误:READONLY You can't write against a read only slave.  127.0.0.1:6382> set k3 111  (error) READONLY You can't write against a read only slave. 如果你要开启从库

Netty环境配置

netty是一个java事件驱动的网络通信框架,也就是一个jar包,只要在项目里引用即可。

Netty基于流的传输处理

​在TCP/IP的基于流的传输中,接收的数据被存储到套接字接收缓冲器中。不幸的是,基于流的传输的缓冲器不是分组的队列,而是字节的队列。 这意味着,即使将两个消息作为两个独立的数据包发送,操作系统也不会将它们视为两个消息,而只是一组字节(有点悲剧)。 因此,不能保证读的是您在远程定入的行数据

Netty入门实例-使用POJO代替ByteBuf

使用TIME协议的客户端和服务器示例,让它们使用POJO来代替原来的ByteBuf。

Netty入门实例-时间服务器

Netty中服务器和客户端之间最大的和唯一的区别是使用了不同的Bootstrap和Channel实现

Netty入门实例-编写服务器端程序

channelRead()处理程序方法实现如下

Netty开发环境配置

最新版本的Netty 4.x和JDK 1.6及更高版本

电商平台数据库设计

电商平台数据库表设计:商品分类表、商品信息表、品牌表、商品属性表、商品属性扩展表、规格表、规格扩展表

HttpClient 上传文件

我们使用MultipartEntityBuilder创建一个HttpEntity。 当创建构建器时,添加一个二进制体 - 包含将要上传的文件以及一个文本正文。 接下来,使用RequestBuilder创建一个HTTP请求,并分配先前创建的HttpEntity。

MongoDB常用命令

查看当前使用的数据库    > db    test  切换数据库   > use foobar    switched to db foobar  插入文档    > post={"title":"领悟书生","content":"这是一个分享教程的网站","date":new

快速了解MongoDB【基本概念与体系结构】

什么是MongoDB MongoDB is a general purpose, document-based, distributed database built for modern application developers and for the cloud era. MongoDB是一个基于分布式文件存储的数据库。由C++语言编写。旨在为WEB应用提供可扩展的高性能数据存储解决方案。

windows系统安装MongoDB

安装 下载MongoDB的安装包:mongodb-win32-x86_64-2008plus-ssl-3.2.10-signed.msi,按照提示步骤安装即可。 安装完成后,软件会安装在C:\Program Files\MongoDB 目录中 我们要启动的服务程序就是C:\Program Files\MongoDB\Server\3.2\bin目录下的mongod.exe,为了方便我们每次启动,我

Spring boot整合MyBatis-Plus 之二:增删改查

基于上一篇springboot整合MyBatis-Plus之后,实现简单的增删改查 创建实体类 添加表注解TableName和主键注解TableId import com.baomidou.mybatisplus.annotations.TableId;
import com.baomidou.mybatisplus.annotations.TableName;
import com.baom

分布式ID生成器【snowflake雪花算法】

基于snowflake雪花算法分布式ID生成器 snowflake雪花算法分布式ID生成器几大特点: 41bit的时间戳可以支持该算法使用到2082年 10bit的工作机器id可以支持1024台机器 序列号支持1毫秒产生4096个自增序列id 整体上按照时间自增排序 整个分布式系统内不会产生ID碰撞 每秒能够产生26万ID左右 Twitter的 Snowflake分布式ID生成器的JAVA实现方案