配置完成jdk,并记录Jdk路径
1.http://www.cnblogs.com/kinglau/p/3794433.html 一、在Ubuntu下创建hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户。
在终端输入命令 1、创建hadoop用户组
sudo addgroup hadoop2、创建hadoop用户
sudo adduser -ingroup hadoop hadoop回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可。如果不输入密码,回车后会重新提示输入密码,即密码不能为空。最后确认信息是否正确,如果没问题,输入 Y,回车即可。3、为hadoop用户添加权限
sudo gedit /etc/sudoers回车,打开sudoers文件 给hadoop用户赋予和root用户同样的权限 root ALL=(ALL:ALL)ALL hadoop ALL=(ALL:ALL)ALL
二、用新增加的hadoop用户登录Ubuntu系统
三、安装ssh 1.
sudo apt-get install openssh-server2.
安装完成后,启动服务sudo /etc/init.d/ssh start查看服务是否正确启动:ps -e | grep ssh 3.`
回车
此时会在/home/hadoop/.ssh下生成两个文件:id_rsa和id_rsa.pub,前者为私钥,后者为公钥。下面我们将公钥追加到authorized_keys中,它用户保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容。cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys4.登陆ssh
登录sshssh localhost5.退出 退出 exit
http://blog.csdn.net/ycisacat/article/details/53314144 1.下载hadoop,将hadoop解压,并改名为hadoop2.7 放到home文件夹下 路径 /home/hadoop(用户名)/hadoop2.7(文件夹名) 2.配置环境变量
#修改bashrc文件$sudo gedit ~/.bashrc在文件最后添加
在bashrc文件最后添加:#set java environmentexport JAVA_HOME=/usr/local/javajdk1.8 //jdk路径export JRE_HOME=${JAVA_HOME}/jreexport CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/libexport PATH=${JAVA_HOME}/bin:$PATH#set hadoop environmentexport HADOOP_INSTALL=/home/hadoop/hadoop2.7 //hadoop路径export PATH=$PATH:$HADOOP_INSTALL/binexport PATH=$PATH:$HADOOP_INSTALL/sbinexport HADOOP_MAPRED_HOME=$HADOOP_INSTALLexport HADOOP_COMMON_HOME=$HADOOP_INSTALLexport HADOOP_HDFS_HOME=$HADOOP_INSTALL保存后关闭文件
source ~/.bashrc3.修改hadoop 文件
修改hadoop2.7 文件权限$sudo chown -R hadoop:hadoop /home/hadoop/hadoop2.7sudo gedit /etc/hadoop/hadoop-env.sh把jdk路径改了
4.hadoop单机运行例子验证
以上如果配置无误的话,hadoop已经可以单机运行了。可以用自带的例子检验。 hadoop的例子在hadoop/share/hadoop/mapreduce/下,名为hadoop-mapreduce-examples-版本号.jar
cd /home/hadoop/hadoop2.7#创建input目录,复制运行/home/hadoop/hadoop2.7/etc/hadoop/下所有xml文件到该目录下/home/hadoop/hadoop2.7$ sudo mkdir input/home/hadoop/hadoop2.7$ sudo cp etc/hadoop/*.xml input #运行示例,检测input中符合' '中正则匹配规则的单词出现的次数(这里为dfs开头的单词)/home/hadoop/hadoop2.7$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+'#查看结果/home/hadoop/hadoop2.7$ cat output/*如果正常运行,看到success即成功。hadoop下会自动生成一个output文件夹来存放结果,但是下次运行时不会自动覆盖,再次运行示例时会报错。要先把上次的结果删掉。 sudo rm -R output
新闻热点
疑难解答