首页 > 学院 > 开发设计 > 正文

ubuntu14.04安装hadoop2.7.1

2019-11-06 08:52:43
字体:
来源:转载
供稿:网友

配置完成jdk,并记录Jdk路径

1.http://www.cnblogs.com/kinglau/p/3794433.html 一、在Ubuntu下创建hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户。

在终端输入命令 1、创建hadoop用户组

sudo addgroup hadoop

2、创建hadoop用户

sudo adduser -ingroup hadoop hadoop回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可。如果不输入密码,回车后会重新提示输入密码,即密码不能为空。最后确认信息是否正确,如果没问题,输入 Y,回车即可。

3、为hadoop用户添加权限

sudo gedit /etc/sudoers

回车,打开sudoers文件 给hadoop用户赋予和root用户同样的权限 root ALL=(ALL:ALL)ALL hadoop ALL=(ALL:ALL)ALL

二、用新增加的hadoop用户登录Ubuntu系统

三、安装ssh 1.

sudo apt-get install openssh-server

2.

安装完成后,启动服务sudo /etc/init.d/ssh start查看服务是否正确启动:ps -e | grep ssh

这里写图片描述 3.`

设置免密码登录,生成私钥和公钥ssh-keygen -t rsa -P ""

回车

此时会在/home/hadoop/.ssh下生成两个文件:id_rsa和id_rsa.pub,前者为私钥,后者为公钥。下面我们将公钥追加到authorized_keys中,它用户保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容。cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

4.登陆ssh

登录sshssh localhost

这里写图片描述

5.退出 退出 exit

http://blog.csdn.net/ycisacat/article/details/53314144 1.下载hadoop,将hadoop解压,并改名为hadoop2.7 放到home文件夹下 路径 /home/hadoop(用户名)/hadoop2.7(文件夹名) 2.配置环境变量

#修改bashrc文件$sudo gedit ~/.bashrc

在文件最后添加

在bashrc文件最后添加:#set java environmentexport JAVA_HOME=/usr/local/javajdk1.8 //jdk路径export JRE_HOME=${JAVA_HOME}/jreexport CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/libexport PATH=${JAVA_HOME}/bin:$PATH#set hadoop environmentexport HADOOP_INSTALL=/home/hadoop/hadoop2.7 //hadoop路径export PATH=$PATH:$HADOOP_INSTALL/binexport PATH=$PATH:$HADOOP_INSTALL/sbinexport HADOOP_MAPRED_HOME=$HADOOP_INSTALLexport HADOOP_COMMON_HOME=$HADOOP_INSTALLexport HADOOP_HDFS_HOME=$HADOOP_INSTALL

保存后关闭文件

source ~/.bashrc

3.修改hadoop 文件

修改hadoop2.7 文件权限$sudo chown -R hadoop:hadoop /home/hadoop/hadoop2.7sudo gedit /etc/hadoop/hadoop-env.sh

把jdk路径改了 这里写图片描述

4.hadoop单机运行例子验证

以上如果配置无误的话,hadoop已经可以单机运行了。可以用自带的例子检验。 hadoop的例子在hadoop/share/hadoop/mapreduce/下,名为hadoop-mapreduce-examples-版本号.jar

cd /home/hadoop/hadoop2.7#创建input目录,复制运行/home/hadoop/hadoop2.7/etc/hadoop/下所有xml文件到该目录下/home/hadoop/hadoop2.7$ sudo mkdir input/home/hadoop/hadoop2.7$ sudo cp etc/hadoop/*.xml input #运行示例,检测input中符合' '中正则匹配规则的单词出现的次数(这里为dfs开头的单词)/home/hadoop/hadoop2.7$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+'#查看结果/home/hadoop/hadoop2.7$ cat output/*

如果正常运行,看到success即成功。hadoop下会自动生成一个output文件夹来存放结果,但是下次运行时不会自动覆盖,再次运行示例时会报错。要先把上次的结果删掉。 sudo rm -R output

sudo rm -R output
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表