我有7个以下存储空间的数据节点:
在数据节点4上,我在/ data上安装了1TB的数据。所以我在datanode 4上开始put
操作(hadoop fs -put /data /user/hadoop-user/
)。当存储耗尽时,它继续对存储量较大的其他数据节点进行操作,但速度非常慢。
现在我的问题是:
put
操作的块大小?从here开始,它说" DataNode开始以(4 KB)"的一小部分开始接收数据。这对于1TB数据来说似乎太小了。有没有办法增加这个?答案 0 :(得分:0)
数目:
dfs.stream-buffer-size
,dfs.bytes-per-checksum
和dfs.client-write-packet-size
- 说数据包本身更大,我会小心这些设置 - 很可能问题是在其他地方< / LI>
问题:
此外: