无法创建hadoop文件-错误:超出磁盘配额(122)

时间:2019-05-28 21:58:25

标签: linux unix hadoop

我正在尝试创建多个Hadoop文件,以通过Spark作业从第三方API读取数据。但是,每当尝试在服务器上创建Hadoop文件时,都会收到错误消息。

[qarth@comp-table tmp]$ hadoop fs -touchz /user/qarth/teacherslist/listheader.txt
2019-05-28 21:42:37,2162 ERROR Client fs/client/fileclient/cc/client.cc:1367 Thread: 16584 Create failed for file listheader.txt, error Disk quota exceeded(122) fid 3552470.11104524.335519052
touchz: Create failed for file: /user/qarth/teacherslist/listheader.txt, error: Disk quota exceeded (122)

我尝试从/ tmp文件夹中删除文件。 我还尝试过删除同一目录中的其他现有Hadoop文件。 这是目录的空间使用情况:

[qarth@comp-table tmp]$ hadoop fs -count -q /user/qarth/teacherslist/

    none             inf            none             inf            1            
6         2565646189 /user/qarth/teacherslist

如何解决此问题?已经有一段时间了。

0 个答案:

没有答案