我使用DSE 4.7 datastax-enterprise,C * 2.1.5,spark 1.2.1,需要将数据从大表迁移到新的空表,其中包含不同的模式和需要从一个生成的附加列大桌子上的切割柱。
我知道将表数据迁移到具有新架构的另一个表可以通过 spark 或通过复制命令到 cqlsh 中的csv文件来完成,但我感兴趣的是一个工具,可以为我的未来迁移提供长期解决方案,并为管理和规划迁移提供更多选择。
我认为这是一个常见问题,我找不到任何可靠的解决方案。
有什么想法吗?
答案 0 :(得分:1)
我一直相信Spark是这项工作的最佳工具。 我测试了下面的代码,结果很好。
import java.sql.Date
import org.apache.spark.{SparkContext, SparkConf}
import org.apache.spark.sql.{Row, SQLContext}
import com.datastax.spark.connector._
import com.datastax.spark.connector.cql.CassandraConnector
import java.sql._
import com.github.nscala_time.time.Imports._
object Migration {
def main(args: scala.Array[String]) {
def changeDate(created: java.util.Date) : String = {
var sDate = new DateTime(created)
var sDay = sDate.getDayOfMonth()
var sMonth = sDate.getMonthOfYear()
var sYear = sDate.getYear()
var created_date = "" + sYear + "-" + sMonth + "-" + sDay
created_date //return
}
//spark configuration
val conf = new SparkConf().setAppName("migration")
val sc = new SparkContext(conf)
val sqlContext = new SQLContext(sc)
val connector = CassandraConnector(conf)
val rdd = sc.cassandraTable("keyspace", "table_a")
println("Starting migration...")
rdd.map(row => {
val x = new java.util.Date(row.getLong("x"))
val y = new java.util.Date(row.getLong("y"))
val z = row.getString("z")
val t = row.getString("t")
val k = changeDate(x)
connector.withSessionDo(session => {
val statement = session.prepare(s"INSERT INTO keyspace.table_b (k, y, z, x, t) " + "values (?, ?, ?, ?, ?)")
val bound = statement.bind(k, y, z, x, t)
session.executeAsync(bound)
})
}).foreach(x => x.getUninterruptibly())
println("Done.")
} }