Hadoop 1.2.1 单节点安装(Single Node Setup)步骤
为了使您快速体验Hadoop,可以在一台机子上安装单节点(Node)的hadoop。
相关阅读:单节点Hadoop安装过程 http://www.linuxidc.com/Linux/2013-03/80282.htm
一 安装的前提条件
1.平台要求
(1). hadoop全面支持GNU/Linux,并且已经演示过部署在GNU/Linux上超过2000个节点的集群。
(2). Win32 仅支持作为开发平台,hadoop的分布式相关功能并未在Win32 上作全面测试,因此不建议在产品环境中使用win32平台。
2.软件要求
Linux和windows上都需要安装以下软件:
(1)必须安装JavaTM 1.6.x,最好是sun的.
(2)必须安装SSH,SSHD需要开启,hadoop脚本才能管理远程实例(remote Hadoop daemons)
另外:
Windows上必须安装Cygwin.
3.安装以上软件
Ubuntu Linux上安装举例:
$sudoapt-getinstallssh
$sudoapt-getinstallrsync
windows上安装了cygwin后,还需要安装openssh.
二 下载最新稳定版hadoop 1.2.1
下载地址:http://hadoop.apache.org/core/releases.html
三 准备启动Hadoop集群(单节点)
解压缩下载的hadoop,并编辑conf/hadoop-env.sh文件,将配置项JAVA_HOM设置为你安装的java的当前根目录。
开始运行一下命令:
1 $ bin/hadoop
如果显示的是hadoop命令的帮助,则表示设置正确。
接下来,你可以操作hadoop集群了,hadoop集群有三种模式:
Local (Standalone) Mode(独立模式)
Pseudo-Distributed Mode(伪分布式模式)
Fully-Distributed Mode(分布式模式)
在这里仅介绍前两种模式,第三种模式较复杂,以后单独介绍。
四 独立模式使用
默认情况下,hadoop被配置成非分布式模式,即一个java进程,这样方便调试。
下面的命令将hadoop安装目录下的conf目录作为输入,然后将conf目录下的文件中符合给定正则表达式条件的内容找出来。输出即将内容写入指定的输出目录的文件中。
$mkdirinput
$cpconf/*.xml input
$ bin/hadoopjar hadoop-examples-*.jargrepinput output'dfs[a-z.]+'
$catoutput/*
知识点
相关教程
更多Hadoop node 部署步骤
1.OS安装 a)RHEL 6.2 X64 i.刻录光盘安装(略) b)安装选项 i.Basic server即可 ii.设置hostname iii.安装完毕执行system-config-network,保存配置;如果网络命名:em1,修改/etc/sysconfig/network-scripts/ifcfg-em1: ONBOOT=yes 使得网络自动启动 iv.没有DNS的话编辑/etc
Ubuntu 12.10 +Hadoop 1.2.1版本集群配置
一、引言 Hadop是一种分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的威力高速运算和存储。Hadoop1.2.1版本下载地址:http://apache.dataguru.cn/hadoop/common/hadoop-1.2.1/ 相关阅读: 在Ubuntu 12.10 上安装部署Openstack http://www.
Hadoop Backup Node
要了解 Hadoop Backup Node,要从Namenode的元数据说起。 我们都知道Namenode的元数据非常重要,如果元数据损坏,所有存储在datanode中的数据都读不出来了。另外,如果Namenode的元数据比较大,那么集群的启动速度非常慢。为了解决这两个问题,Hadoop弄了一个Secondary Namenode。 Namenode的元数据: Hadoop
单节点Hadoop安装过程
1.1.1 环境准备 本次由一台CentOS虚拟服务器搭建Hadoop平台,机器信息如表1所示: 表1 主机环境准备 为方便使用,现给出主机环境方面需要修改的地方: ● IP地址修改 IP地址位于/etc/sysconfig/network-scripts/目录中,通过vi编辑ifcfg-eth0文件修改成如下所示结构即可: [root@master network-scripts]# cd /
nutch-2.2.1 hadoop-1.2.1 hbase-0.92.1 集群部署
参考网站:http://blog.csdn.net/weijonathan/article/details/10178919 一个完整的部署过程,只是版本有所区别http://m.blog.csdn.net/blog/WeiJonathan/9251597 杨尚川的博客(nutch 分布式运行) http://qindongliang1922.iteye.com/blog/197705
nutch-2.2.1 hadoop-1.2.1 hbase-0.92.1 集群部署
原文地址:http://www.cnblogs.com/i80386/p/3540389.html 参考网站: http://blog.csdn.net/weijonathan/article/details/10178919 一个完整的部署过程,只是版本有所区别 http://m.blog.csdn.net/blog/WeiJonathan/9251597 杨尚川的博客(nutch 分布式运行)
Hadoop-1.2.1 for CentOS 6.3 64bit
1、环境说明 系统:CentOS release 6.3 64bit java:Java(TM) SE Runtime Environment (build 1.7.0_40-b43) Hadoop:1.2.1 本次实验包括:1个Master,3个Salve,节点之间局域网连接,可以相互ping通, 节点IP地址分布如下: 192.168.1.102 Master.Hadoop 192.168.1
CentOS 5.5 下配置Hadoop 0.21单节点
主要参考Apache官方文档http://hadoop.apache.org/common/docs/r0.21.0/single_node_setup.html 唯一注意的是对于CentOS默认安装后的主机名问题,默认主机名为bogon,需要在/etc/hosts中加入如下一行: 127.0.0.1 bogon.localdomain bogon 运行bin/Hadoop namenode
单节点伪分布式Hadoop的安装与配置
单节点伪分布式Hadoop的安装与配置 安装需要两个先决条件,java版本1.6以上和ssh登录本机不需要输入密码,不同版本的hadoop安装方法不同,注意要通过apache网站的匹配安装说明进行安装 1,安装java Install java rpm -ivh jdk-7u7-linux-x64.rpm [root@linux2 ~]# rm /usr/bin/java rm: remove s
CentOS 6.6下Hadoop 1.0.3单节点配置
环境:系统CentOS6.6;Hadoop版本:1.0.3;java运行环境:jdk1.6 单节点配置过程: 1.配置系统ssh:hadoop在运行过程中会用访问ssh服务,将ssh服务设置成无密码访问,这样hadoop在访问ssh服务的时候就不需要人工手动输入密码了: detail: step 1:生成密钥 [hjchaw@localhost ~]$ ssh-keygen -t rsa -P &
Hadoop环境搭建——单节点篇
自漫聊1.0发布以来,研究Hadoop也有一段时间了,目前环境已基本搭建好,规模为15台的小型集群,昨晚测试时是用wordcount统计一个1.2G的log文件,总耗时2分16秒,虽然测试文件不大,但其性能的优越性已经体现出来了。 更多Hadoop相关信息见 http://www.linuxidc.com/search.aspx?Where=Nkey&Keyword=Hadoop 更多Ha
Hadoop 解除 “Name node is in safe mode”
运行Hadoop程序时,有时候会报以下错误: org.apache.hadoop.dfs.SafeModeException: Cannot delete /user/hadoop/input. Name node is in safe mode 这个错误应该还满常见的吧(至少我运行的时候是这样的) 那我们来分析下这个错误,从字面上来理解: Name node is in safe mode
Hadoop 解除 “Name node is in safe mode”
之前在 Hadoop执行过程中使用了"ctrl+c"操作 再次使用hadoop时出现 “Name node is in safe mode”提示: root@www.linuxidc.com:~/hadoop/hadoop-0.20.2# bin/hadoop fs -put conf input put: org.apache.hadoop.hdfs
Hadoop群集中添加节点步骤
1.在新节点安装好Hadoop 2.把namenode的有关配置文件复制到该节点 3.修改masters和slaves文件,增加该节点 4.设置ssh免密码进出该节点 5.单独启动该节点上的datanode和tasktracker #hadoop-daemon.sh start datanode #hadoop-daemon.sh start tasktracker (或是重启集群start-al
社区版Federated HDFS(多Name Node)实现浅析
目前,HDFS集群的架构包括了单个Name Node和若干个Data Node。Name Node负责两方面的事情:一方面是存储和管理整个命名空间,包括创建、修改、删除和列举文件目录等文件系统级别的操作;另一方面是管理Data Node和文件块。Data Node主要负责文件块的持久化存储和远程访问。 在现有模式下,存储负载的增加对Data Node和Name Node都会造
最新教程
更多java线程状态详解(6种)
java线程类为:java.lang.Thread,其实现java.lang.Runnable接口。 线程在运行过程中有6种状态,分别如下: NEW:初始状态,线程被构建,但是还没有调用start()方法 RUNNABLE:运行状态,Java线程将操作系统中的就绪和运行两种状态统称为“运行状态” BLOCK:阻塞状态,表示线程阻塞
redis从库只读设置-redis集群管理
默认情况下redis数据库充当slave角色时是只读的不能进行写操作,如果写入,会提示以下错误:READONLY You can't write against a read only slave. 127.0.0.1:6382> set k3 111 (error) READONLY You can't write against a read only slave. 如果你要开启从库
Netty环境配置
netty是一个java事件驱动的网络通信框架,也就是一个jar包,只要在项目里引用即可。
Netty基于流的传输处理
在TCP/IP的基于流的传输中,接收的数据被存储到套接字接收缓冲器中。不幸的是,基于流的传输的缓冲器不是分组的队列,而是字节的队列。 这意味着,即使将两个消息作为两个独立的数据包发送,操作系统也不会将它们视为两个消息,而只是一组字节(有点悲剧)。 因此,不能保证读的是您在远程定入的行数据
Netty入门实例-使用POJO代替ByteBuf
使用TIME协议的客户端和服务器示例,让它们使用POJO来代替原来的ByteBuf。
Netty入门实例-时间服务器
Netty中服务器和客户端之间最大的和唯一的区别是使用了不同的Bootstrap和Channel实现
Netty入门实例-编写服务器端程序
channelRead()处理程序方法实现如下
Netty开发环境配置
最新版本的Netty 4.x和JDK 1.6及更高版本
电商平台数据库设计
电商平台数据库表设计:商品分类表、商品信息表、品牌表、商品属性表、商品属性扩展表、规格表、规格扩展表
HttpClient 上传文件
我们使用MultipartEntityBuilder创建一个HttpEntity。 当创建构建器时,添加一个二进制体 - 包含将要上传的文件以及一个文本正文。 接下来,使用RequestBuilder创建一个HTTP请求,并分配先前创建的HttpEntity。
MongoDB常用命令
查看当前使用的数据库 > db test 切换数据库 > use foobar switched to db foobar 插入文档 > post={"title":"领悟书生","content":"这是一个分享教程的网站","date":new
快速了解MongoDB【基本概念与体系结构】
什么是MongoDB MongoDB is a general purpose, document-based, distributed database built for modern application developers and for the cloud era. MongoDB是一个基于分布式文件存储的数据库。由C++语言编写。旨在为WEB应用提供可扩展的高性能数据存储解决方案。
windows系统安装MongoDB
安装 下载MongoDB的安装包:mongodb-win32-x86_64-2008plus-ssl-3.2.10-signed.msi,按照提示步骤安装即可。 安装完成后,软件会安装在C:\Program Files\MongoDB 目录中 我们要启动的服务程序就是C:\Program Files\MongoDB\Server\3.2\bin目录下的mongod.exe,为了方便我们每次启动,我
Spring boot整合MyBatis-Plus 之二:增删改查
基于上一篇springboot整合MyBatis-Plus之后,实现简单的增删改查 创建实体类 添加表注解TableName和主键注解TableId import com.baomidou.mybatisplus.annotations.TableId; import com.baomidou.mybatisplus.annotations.TableName; import com.baom
分布式ID生成器【snowflake雪花算法】
基于snowflake雪花算法分布式ID生成器 snowflake雪花算法分布式ID生成器几大特点: 41bit的时间戳可以支持该算法使用到2082年 10bit的工作机器id可以支持1024台机器 序列号支持1毫秒产生4096个自增序列id 整体上按照时间自增排序 整个分布式系统内不会产生ID碰撞 每秒能够产生26万ID左右 Twitter的 Snowflake分布式ID生成器的JAVA实现方案