我正在尝试创建多个Hadoop文件,以通过Spark作业从第三方API读取数据。但是,每当尝试在服务器上创建Hadoop文件时,都会收到错误消息。
[qarth@comp-table tmp]$ hadoop fs -touchz /user/qarth/teacherslist/listheader.txt
2019-05-28 21:42:37,2162 ERROR Client fs/client/fileclient/cc/client.cc:1367 Thread: 16584 Create failed for file listheader.txt, error Disk quota exceeded(122) fid 3552470.11104524.335519052
touchz: Create failed for file: /user/qarth/teacherslist/listheader.txt, error: Disk quota exceeded (122)
我尝试从/ tmp文件夹中删除文件。 我还尝试过删除同一目录中的其他现有Hadoop文件。 这是目录的空间使用情况:
[qarth@comp-table tmp]$ hadoop fs -count -q /user/qarth/teacherslist/
none inf none inf 1
6 2565646189 /user/qarth/teacherslist
如何解决此问题?已经有一段时间了。