将文件上传到hadoop

时间:2017-08-02 12:14:52

标签: linux hadoop

我最近下载了Oracle Virtual Box,我想获取一些数据并将其导入HDFS。我想说的是,当谈到这些事情时,我是一个完整的新手。我试过复制不起作用的udacity课程中的说明。

如果我使用的术语不准确,我道歉。

所以在我的VM空间中我有以下文件

  1. 计算机
  2. 训练之家(由Udacity提供)
  3. 的Eclipse
  4. 回收站
  5. 内部训练的主页我位于地方

    下的左侧
    1. 培训,
    2. 桌面
    3. 文件系统
    4. 网络
    5. 回收站
    6. 文档
    7. 图片
    8. 下载
    9. 在我选择培训的右侧,有许多文件夹,其中一个是udacity_training。当我选择这个时,有两个文件夹 代码和数据。当我选择数据时,还有两个名为access_log.gz和purchases.txt的文件夹,这是我要加载到HDFS中的数据

      复制我输入的udacity教程输入的命令

      [training @ localhost~] $ ls access_log.gz purchases.txt

      这给出了错误消息

      ls:无法访问access_log.gz:没有这样的文件或目录 ls:无法访问购买:没有此类文件或目录

      然后我尝试了下一行,看看发生了什么

      [training@localhost ~]$ hadoop fs -ls
      [training@localhost ~]$ hadoop fs -put purchases.txt
      

      再次出错

      put: 'purchases.txt': No such file or directory
      

      我做错了什么?我不太了解命令行提示我认为他们在Linux中?所以我打字的内容对我来说非常外星人。我希望能够理解我打字的内容。有人可以帮助我访问数据,也可能提供一些信息,让我了解我在哪里可以理解我在命令行中输入的内容?任何帮助是极大的赞赏。

1 个答案:

答案 0 :(得分:1)

请开始学习linux&的基础知识。 hadoop命令。 要回答您的问题,请尝试以下选项。

  

使用命令 cd / dir_name 转到所需目录,然后使用
    hadoop fs -put / file_name / hdfs / path