目录文件未通过命令'hadoop fs -put <my local =“” path =“”> <hdfs path =“”>复制到HDFS

时间:2018-12-05 05:58:38

标签: hadoop hive hdfs

我通过以下命令将本地系统中的经过猪处理的文件复制到HDFS路径(链接到HIVE表),但未复制。

第一步:数据在我的本地路径中

[root@quickstart plantoutput]# ll
total 4

-rw-r--r-- 1 root root 1469 Dec  3 02:37 part-m-00000

-rw-r--r-- 1 root root    0 Dec  3 02:37 _SUCCESS

[root@quickstart plantoutput]# pwd

/home/cloudera/Desktop/dealer/plantoutput

Step2:应用命令后,就像这样

[root@quickstart plantoutput]# hadoop fs -put '/home/cloudera/Desktop/dealer/plantoutput' /tabplant

[root@quickstart plantoutput]# hadoop fs -ls /tabplant

找到1个物品

  

drwxr-xr-x-根超级组0 2018-12-04 21:52   / tabplant / plantoutput

实际上,在我的目标hdfs中,路径不包含part-m-00000_SUCCESS

有人可以告诉我我做错了什么吗?是引号吗?

1 个答案:

答案 0 :(得分:1)

@Sekhar,

仅复制category_id中存在的文件

您应该提到可以使用的绝对文件路径,如下所示,

/home/cloudera/Desktop/dealer/plantoutput

当您提到目录时,它将以其父目录的名称复制为目录。