我将拥有非常广泛的C *表。为了防止它们变得太宽,我遇到了一个适合我的策略。它出现在这个视频中。 Bucket Your Partitions Wisely
这个策略的好处是不需要“查找表”(它很快),不好的部分是需要知道最大数量的桶并最终没有更多桶使用(不可扩展)。我知道我的最大铲斗尺寸所以我会尝试这个。
通过计算表主键的哈希值,可以将其与其他主键一起用作桶部分。
我想出了以下方法(我认为?)对于特定的主键,哈希总是相同的。
使用番石榴哈希:
public static String bucket(List<String> primKeyParts, int maxBuckets) {
StringBuilder combinedHashString = new StringBuilder();
primKeyParts.forEach(part ->{
combinedHashString.append(
String.valueOf(
Hashing.consistentHash(Hashing.sha512()
.hashBytes(part.getBytes()), maxBuckets)
)
);
});
return combinedHashString.toString();
}
我使用sha512的原因是能够使用最大字符数为256(512位)的字符串,否则结果将永远不会相同(根据我的测试看来)。
我远不是一个哈希大师,所以我问下面的问题。
要求:在不同节点/机器上的不同JVM执行之间,对于给定的Cassandra主键,结果应始终相同?
拜托,我不想讨论特定表格的数据建模,我只想制定一个桶策略。
修改
进一步阐述并提出这个,所以字符串的长度可以是任意的。你怎么说这个?
public static int murmur3_128_bucket(int maxBuckets, String... primKeyParts) {
List<HashCode> hashCodes = new ArrayList();
for(String part : primKeyParts) {
hashCodes.add(Hashing.murmur3_128().hashString(part, StandardCharsets.UTF_8));
};
return Hashing.consistentHash(Hashing.combineOrdered(hashCodes), maxBuckets);
}
答案 0 :(得分:2)
我目前在生产中使用类似的解决方案。所以对于你的方法我会改为:
public static int bucket(List<String> primKeyParts, int maxBuckets) {
String keyParts = String.join("", primKeyParts);
return Hashing.consistentHash(
Hashing.murmur3_32().hashString(keyParts, Charsets.UTF_8),
maxBuckets);
}
所以差异
您的直接问题1)是的,该方法应该完成这项工作。 2)我认为通过上面的调整你应该设置。 3)假设你需要整个PK吗?
我不确定您是否需要使用整个主键,因为期望主键的分区部分对于许多内容都是相同的,这就是为什么要进行分组。您可以只是对可以为您提供好分区的位进行哈希处理,以便在分区键中使用。在我们的例子中,我们只是哈希PK的一些聚类关键部分,以生成我们用作分区键一部分的桶ID。