如何通过NFS网关挂载特定的hadoop文件夹

时间:2018-04-05 11:28:36

标签: hadoop hdfs nfs

我正在尝试按照这个不错的guide中提到的步骤为我的hadoop群集设置NFS网关。我已按照here步骤进行操作。我可以使用doc:

中提到的/使用命令挂载
mount -t nfs -o vers=3,proto=tcp,nolock $server:/ $mount_point

但我想在我的HDFS中安装一个文件夹,如下所示:

mount -t nfs -o vers=3,proto=tcp,nolock $server:/$dir $mount_point

但是这会从mount命令中产生以下错误:

  

mount.nfs:挂载10.33.37.220:/dir失败,服务器给出的理由:

     

没有这样的文件或目录

并在NFS网关中显示以下日志:

  

18/04/05 15:14:43 INFO mount.RpcProgramMountd:不共享路径/目录。

我还尝试在/etc/exports

中添加以下行
saurabh@0001:~$ cat /etc/exports
/whatsappData 10.0.0.0/24(rw,sync)

如何做到这一点。

1 个答案:

答案 0 :(得分:0)

从Hadoop docs,我发现有一个配置导出点:nfs.export.point

这可以指定HDFS的NFS导出点。确实支持一个导出点。配置导出点时需要完整路径。默认情况下,导出点是根目录/

因此设置以下内容解决了我的问题:

<property>
  <name>nfs.export.point</name>
  <value>/dir</value>
</property>