Hadoop + NFS 折腾
发表于 : 2014-09-12 11:58
1 修改 hdfs-site.xml 加入:
2 修改 core-site.xml 加入:
3 重启 hadoop
4 以root身份执行
或
5 以hadoop身份执行
或
6 到NFS客户端运行 (192.168.1.62是hadoop服务器IP):
挂载:
7 停止NFS服务:
代码: 全选
<property>
<name>dfs.namenode.accesstime.precision</name>
<value>3600000</value>
</property>
<property>
<name>dfs.nfs3.dump.dir</name>
<value>/tmp/.hdfs-nfs</value>
</property>
<property>
<name>dfs.nfs.exports.allowed.hosts</name>
<value>* rw</value>
</property>
代码: 全选
<property>
<name>hadoop.proxyuser.hadoop.groups</name>
<value>root,hadoop</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop.hosts</name>
<value>127.0.0.1</value>
</property>
4 以root身份执行
代码: 全选
hadoop portmap
代码: 全选
hadoop-daemon.sh start portmap
代码: 全选
hadoop nfs3
代码: 全选
hadoop-daemon.sh start nfs3
代码: 全选
showmount -e IP 192.168.1.62
代码: 全选
sudo mount -t nfs -o vers=3,proto=tcp,nolock 192.168.1.62:/ /mnt
代码: 全选
hadoop-daemon.sh stop nfs3
hadoop-daemon.sh stop portmap