默认情况下,Hbase具有每行的时间戳值。我们如何通过spark scala代码更新我自己的HBase中的时间戳值,同时保存(插入)来自spark Dataframe的记录?
例如,
create 'test', 'cf'
put 'test', 'row1', 'cf:a', 'value1'
put 'test', 'row2', 'cf:b', 'value2'
put 'test', 'row3', 'cf:c', 'value3'
scan 'test'
ROW COLUMN+CELL
row1 column=cf:a, timestamp=1288380727188, value=value1
row2 column=cf:b, timestamp=1288380738440, value=value2
row3 column=cf:c, timestamp=1288380747365, value=value3
我们如何根据数据框更新时间戳?
答案 0 :(得分:0)
您可以添加最后添加Long的时间戳: 把'test','row1','cf:a','value1,111111
如果你想更新时间戳,你只需要再次添加相同的数据(如果你有VERSIONS = 1,但这是另一个问题)