标签: java apache hadoop cloudera hadoop-partitioning
我' Hadoop中的新功能, 我正在使用群集,我的磁盘报价为15GB。 如果我尝试在大数据集(大约25GB)上执行 wordcount示例,我会收到异常"超出xxxx的DiskSpace配额:"。
我在异常后查看了我的磁盘使用情况,它离报价太远了。 这是由于临时文件还是中间工作? 可以删除临时/中间文件吗?
(我可以通过Java代码修改配置,我无法直接访问.xml配置文件)
谢谢! ;)