我可以使用以下代码阅读来自Kafka的消息:
val ssc = new StreamingContext(sc, Seconds(50))
val topicmap = Map("test" -> 1)
val lines = KafkaUtils.createStream(ssc,"127.0.0.1:2181", "test-consumer-group",topicmap)
但是,我正在尝试阅读Kafka的每条消息并将其放入HBase。这是我写入HBase的代码,但没有成功。
lines.foreachRDD(rdd => {
rdd.foreach(record => {
val i = +1
val hConf = new HBaseConfiguration()
val hTable = new HTable(hConf, "test")
val thePut = new Put(Bytes.toBytes(i))
thePut.add(Bytes.toBytes("cf"), Bytes.toBytes("a"), Bytes.toBytes(record))
})
})
答案 0 :(得分:5)
好吧,你实际上并没有执行Put,你是mereley创建一个Put请求并向其添加数据。你缺少的是
hTable.put(thePut);
答案 1 :(得分:1)
添加其他答案!!
您可以使用foreachPartition
在执行者级别建立连接,以提高效率,而不是每行,这是一项代价高昂的操作。
lines.foreachRDD(rdd => {
rdd.foreachPartition(iter => {
val hConf = new HBaseConfiguration()
val hTable = new HTable(hConf, "test")
iter.foreach(record => {
val i = +1
val thePut = new Put(Bytes.toBytes(i))
thePut.add(Bytes.toBytes("cf"), Bytes.toBytes("a"), Bytes.toBytes(record))
//missing part in your code
hTable.put(thePut);
})
})
})