我试图加入来自两个kafka主题的两个数据流。
每个主题都有一个键值对,其中键是整数数据类型,值包含字符串格式的 json 。来自两个来源的数据类似于以下示例(键,值):
2232, {"uniqueID":"2164103","ConsumerID":"63357","CategoryID":"8","BrandID":"5","ProductID":"2232","ProductDetails":"[]","Date":"2013-03-28","Flag":"0"}
1795, {"ProductName":"Frost Free","ProductID":"1795","BrandID":"16","BrandName":"ABC","CategoryID":"3"}
现在我尝试基于ProductID 左连接这两个流,因此将密钥设置为所有这些记录的ProductID。但不幸的是,我在连接的正确流值中不断获得空值。甚至没有一条记录正确加入。以下是我加入两条记录的代码:
import org.apache.kafka.streams.StreamsConfig;
import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.streams.kstream.*;
import org.apache.kafka.streams.KafkaStreams;
import org.apache.kafka.common.serialization.Serde;
import org.apache.kafka.common.serialization.Serdes;
import com.google.gson.Gson;
import com.google.gson.reflect.TypeToken;
import java.util.concurrent.TimeUnit;
import java.util.*;
public class Tester {
public static void main(String[] args){
final Properties streamsConfiguration = new Properties();
final Serde<String> stringSerde = Serdes.String();
final Serde<Integer> intSerde = Serdes.Integer();
streamsConfiguration.put(StreamsConfig.APPLICATION_ID_CONFIG, "join-streams");
streamsConfiguration.put(StreamsConfig.CLIENT_ID_CONFIG, "joining-Client");
streamsConfiguration.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
streamsConfiguration.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, intSerde.getClass().getName());
streamsConfiguration.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG, stringSerde.getClass().getName());
streamsConfiguration.put(StreamsConfig.COMMIT_INTERVAL_MS_CONFIG, 100);
streamsConfiguration.put(StreamsConfig.CACHE_MAX_BYTES_BUFFERING_CONFIG, 0);
streamsConfiguration.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 9000);
final KStreamBuilder builder = new KStreamBuilder();
KStream<Integer,String> pData = builder.stream(intSerde,stringSerde,"Ptopic");
KStream<Integer,String> streamData = builder.stream(intSerde,stringSerde,"Dtopic");
// Test the data type and value of the key
pbData.selectKey((k,v)->{System.out.println("Table : P, Type : "+k.getClass()+" Value : "+k);return k;});
streamData.selectKey((k,v)->{System.out.println("Table : StreamRecord, Type : "+k.getClass()+" Value : "+k);return k;});
KStream<Integer,String> joined = streamData.leftJoin(pbData,(table1Value,table2Value)->returnJoin(table1Value,table2Value),JoinWindows.of(TimeUnit.SECONDS.toMillis(30)));
final KafkaStreams streams = new KafkaStreams(builder, streamsConfiguration);
streams.cleanUp();
streams.start();
// Add shutdown hook to respond to SIGTERM and gracefully close Kafka Streams
Runtime.getRuntime().addShutdownHook(new Thread(streams::close));
}
private static HashMap convertToHashMap(String jsonString, String tablename){
try{
HashMap<String,String> map = new Gson().fromJson(jsonString, new TypeToken<HashMap<String, String>>(){}.getType());
return map;
}
catch(Exception x){
//couldn't properly parse json
HashMap<String,String> record = new HashMap<>();
if (tablename.equals("PB")){
List<String> keys = new ArrayList<>(Arrays.asList("ProductName", ", "CategoryID", "ProductID", "BrandID", "BrandName", "ProductCategoryID"));
for(String key : keys){
record.put(key,null);
}
}
else{
List<String> keys = new ArrayList<>(Arrays.asList("UniqueID", "ConsumerID", "CategoryID", "BrandID", "ProductID", "Date","Flag","ProductDetails"));
for(String key : keys){
record.put(key,null);
}
}
return record;
}
}
private static String returnJoin(String map1, String map2){
HashMap h1 = convertToHashMap(map1,"consumer_product");
HashMap h2 = convertToHashMap(map2,"PB");
HashMap map3 = new HashMap<>();
System.out.println("First : " + map1);
System.out.println("Second : " + map2);
//else{System.out.println("Null only");}
for (Object key : h1.keySet()) {
key = key.toString();
if (map3.containsKey(key)) {
continue;
}
map3.put(key, h1.get(key));
}
try {
for (Object key : h2.keySet()) {
key = key.toString();
if (map3.containsKey(key)) {
continue;
}
map3.put(key, h2.get(key));
}
System.out.println("Worked Okay PB!!!\n--------------------------------------------------------------------------------------");
}
catch (NullPointerException ex){
/*System.out.println("Exception\n----------------------------------------------------------------------------");
HashMap fakeC = getHashMap("{","consumer");
for (Object key : fakeC.keySet()) {
key = key.toString();
if (map3.containsKey(key)) {
continue;
}
map3.put(key, fakeC.get(key));
}*/
return "INVALID";
}
//return map3;
return serializeObjectJSON(map3);
}
private static String serializeObjectJSON(Map row){
StringBuilder jsonString = new StringBuilder();
jsonString.append("{");
for ( Object key : row.keySet()){
jsonString.append("\""+key.toString()+"\":");
try {
jsonString.append("\"" + row.get(key).toString() + "\",");
}
catch (NullPointerException Nexp){
jsonString.append("\"" + "null" + "\",");
}
}
jsonString.deleteCharAt(jsonString.length()-1);
jsonString.append("}");
String jsString = jsonString.toString();
////System.out.println("JString :"+jsString);
return jsString;
}
}
我无法弄清楚为什么我只能在左连接的右侧流中获取null,当我尝试以任何方式加入两个流时,但是当我尝试加入相同的流时,加入工作。
我确保两个流中的所有记录的密钥类型都是Integer,并且不存在null,因为我检查了两个流的类型和键值(可以检入上面的代码)。并且两个流都有重叠键以便连接发生,因为我认为任何一个键都不会重叠或者数据类型可能不同,因为这是我们在连接中获得空值的时候。
任何人都可以帮我弄清楚我做错了吗?
更新:
这两个主题(我加入的)中的数据来自两个流。其中一个流是自定义(Key,value)类型的流(Integer,recordHashmap),而其他流只是一个(Integer,string)流。 这里 recordHashmap 是我定义的自定义对象,用于将嵌套的json字符串解析为对象。其定义定义如下:
public class recordHashmap {
private String database;
private String table;
private String type;
private Integer ts;
private Integer xid;
private Map<String,String> data;
public Map getdata(){
return data;
}
public String getdatabase(){return database;}
public String gettable(){return table;}
public String gettype(){return type;}
public Integer getts(){return ts;}
public Integer getxid(){return xid;}
public void setdata(Map<String, String> dta){
data=dta;
}
public void setdatabase(String db){ database=db; }
public void settable(String tble){ table=tble; }
public void settype(String optype){type=optype;}
public void setts(Integer unixTime){ts = unixTime;}
public void setxid(Integer Xid){xid = Xid;}
public String toString() {
return "Database=" + this.database + ", Table=" + this.table+", OperationType="+this.type+", UnixOpTime"+this.ts + ", Data="
+ this.data;
}
}
将密钥设置为产品ID的代码如下所示:
KStream<Integer,recordHashmap> rekeyedProductID = inserts.selectKey((k,v)->setTheKey(v.getdata(),"ProductID"));
KStream<Integer,String> consumer_product_Stream = rekeyedProductID.mapValues((v)->serializeObjectJSON(v.getdata()));
函数 setTheKey 定义为
private static Integer setTheKey(Map map, String Key){
try {
//System.out.println("New Key : " + map.get(Key));
return Integer.parseInt(map.get(Key).toString());
}
catch (NumberFormatException nmb){
//fake return a custom value
return -1;
}
}
以下两个语句的控制台日志示例如下所示(注意:整体日志太大而无法添加,但主要是两个流键都是整数且键重叠):
pbData.selectKey((k,v)->{System.out.println("Table : P, Type : "+k.getClass()+" Value : "+k);return k;});
streamData.selectKey((k,v)->{System.out.println("Table : StreamRecord, Type : "+k.getClass()+" Value : "+k);return k;});
控制台日志:
Table : streamRecord, Type:class java.lang.Integer Value:1342
Table : streamRecord, Type:class java.lang.Integer Value:595
Table : streamRecord, Type:class java.lang.Integer Value:1934
Table : streamRecord, Type:class java.lang.Integer Value:2384
Table : streamRecord, Type:class java.lang.Integer Value:1666
Table : streamRecord, Type:class java.lang.Integer Value:665
Table : streamRecord, Type:class java.lang.Integer Value:2671
Table : streamRecord, Type:class java.lang.Integer Value:949
Table : streamRecord, Type:class java.lang.Integer Value:2455
Table : streamRecord, Type:class java.lang.Integer Value:928
Table : streamRecord, Type:class java.lang.Integer Value:1602
Table : streamRecord, Type:class java.lang.Integer Value:74
Table : P, Type:class java.lang.Integer Value:2
Table : streamRecord, Type:class java.lang.Integer Value:1795
Table : P, Type:class java.lang.Integer Value:21
Table : streamRecord, Type:class java.lang.Integer Value:1265
Table : P, Type:class java.lang.Integer Value:22
Table : streamRecord, Type:class java.lang.Integer Value:2420
Table : P, Type:class java.lang.Integer Value:23
Table : streamRecord, Type:class java.lang.Integer Value:1419
Table : P, Type:class java.lang.Integer Value:24
Table : streamRecord, Type:class java.lang.Integer Value:1395
Table : P, Type:class java.lang.Integer Value:26
Table : streamRecord, Type:class java.lang.Integer Value:1783
Table : P, Type:class java.lang.Integer Value:29
Table : streamRecord, Type:class java.lang.Integer Value:1177
Table : P, Type:class java.lang.Integer Value:34
Table : streamRecord, Type:class java.lang.Integer Value:1395
Table : P, Type:class java.lang.Integer Value:35
Table : streamRecord, Type:class java.lang.Integer Value:2551
Table : P, Type:class java.lang.Integer Value:36
Table : P, Type:class java.lang.Integer Value:2551
Table : streamRecord, Type:class java.lang.Integer Value:2530
Table : P, Type:class java.lang.Integer Value:37
Table : streamRecord, Type:class java.lang.Integer Value:541
Table : P, Type:class java.lang.Integer Value:39
Table : streamRecord, Type:class java.lang.Integer Value:787
Table : P, Type:class java.lang.Integer Value:40
Table : streamRecord, Type:class java.lang.Integer Value:2498
Table : P, Type:class java.lang.Integer Value:41
Table : streamRecord, Type:class java.lang.Integer Value:1439
Table : P, Type:class java.lang.Integer Value:44
Table : streamRecord, Type:class java.lang.Integer Value:784
Table : P, Type:class java.lang.Integer Value:284
Table : P, Type:class java.lang.Integer Value:285
Table : P, Type:class java.lang.Integer Value:929
Table : P, Type:class java.lang.Integer Value:286
Table : P, Type:class java.lang.Integer Value:287
Table : P, Type:class java.lang.Integer Value:2225
Table : P, Type:class java.lang.Integer Value:288
Table : P, Type:class java.lang.Integer Value:289
Table : P, Type:class java.lang.Integer Value:290
Table : P, Type:class java.lang.Integer Value:295
Table : P, Type:class java.lang.Integer Value:297
Table : P, Type:class java.lang.Integer Value:300
Table : P, Type:class java.lang.Integer Value:302
Table : P, Type:class java.lang.Integer Value:305
Table : P, Type:class java.lang.Integer Value:306
Table : P, Type:class java.lang.Integer Value:307
Table : P, Type:class java.lang.Integer Value:308
Table : P, Type:class java.lang.Integer Value:309
Table : P, Type:class java.lang.Integer Value:310
Table : streamRecord, Type:class java.lang.Integer Value:929
Table : streamRecord, Type:class java.lang.Integer Value:1509
Table : streamRecord, Type:class java.lang.Integer Value:136
Table : streamRecord, Type:class java.lang.Integer Value:2225
Table : streamRecord, Type:class java.lang.Integer Value:906
Table : streamRecord, Type:class java.lang.Integer Value:1013
Table : streamRecord, Type:class java.lang.Integer Value:1759
Table : streamRecord, Type:class java.lang.Integer Value:1759
Table : streamRecord, Type:class java.lang.Integer Value:885
Table : streamRecord, Type:class java.lang.Integer Value:1165
Table : streamRecord, Type:class java.lang.Integer Value:453
更新-2 :这里有趣的是,对于同一组键值对,leftJoin对于 KTables 工作正常。但出于某种原因不适用于 KStreams 。但我需要使用KStreams,因为我有很多关于密钥的记录。通常,大多数情况下,这种连接在溪流上的工作方式就像一个魅力,但它在这种特殊情况下表现得很奇怪。我猜这可能与RocksDB或内部缓存有关。
答案 0 :(得分:0)
您似乎没有将ProductID设置为密钥:
pbData.selectKey((k,v)->{System.out.println("Table : P, Type : "+k.getClass()+" Value : "+k);return k;});
streamData.selectKey((k,v)->{System.out.println("Table : StreamRecord, Type : "+k.getClass()+" Value : "+k);return k;});
在两个声明中,您都会返回原始密钥 - &gt; return k
;而是从JSON解析productId并返回它。
<强>更新强>
我仍然不确定我是否可以正确地将所有部分放在一起,就像在您的更新中一样,您使用
KStream<Integer,recordHashmap> rekeyedProductID = inserts.selectKey((k,v)->setTheKey(v.getdata(),"ProductID"));
KStream<Integer,String> consumer_product_Stream =
rekeyedProductID.mapValues((V) - &GT; serializeObjectJSON(v.getdata()));
并且不清楚inserts
和rekeyedProductID
是什么(什么是类型?)。无论如何,我认为这部分是正确的。正如你所提到的那样,如果右边是KTable(使用相同的数据),它可以工作,我只是假设你加入窗口不够大,这样两个具有相同密钥的记录距离(时间上)更远彼此超过你指定的30秒。你能仔细检查两个输入流的记录时间戳吗? (cf https://docs.confluent.io/current/streams/faq.html#accessing-record-metadata-such-as-topic-partition-and-offset-information)