在c#中将数据导入Cassandra集群的最佳方法

时间:2015-06-02 13:46:32

标签: c# cassandra batch-processing

我在sql server中有数十亿行数据。我们现在转而使用Cassandra作为数据仓库来执行分析工作。 SQL服务器将充当OLTP& Cassandra作为OLAP。数据导入cassandra是通过datastax c#驱动程序执行的。我一直在尝试通过datastax c#driver插入cassandra的各种方法。什么是插入大量数据的最佳方式? 我创建了各种PCO(Plain cassandra对象),它们是Cassandra Column系列的映射器。列族有30多列。

[Table("CF_Data")]
internal class CF_Data
{
    [PartitionKey]
    public Guid Date{ get; set; }
    public DateTimeOffset Name { get; set; }
    .................
}

第一种方法: 我正在创建上面的类和&的实例将其绑定到批处理语句。最后执行每1000行的批处理。

 var batch  =session.CreateBatch();;
        foreach (cf_Data val in lsData)
        {
            try
            {
                if (((count) % 1000) == 1)
                {
                   batch = session.CreateBatch();
                }
                batch.Append(table.Insert(val)); 
                if (count % 1000 == 0)
                {
                    batch.Execute();   
                }
            }
            catch (Exception)
            {
                throw;
            }
            count++;
        }

第二种方法:  每行通过Mapper插入数据。

        try
        {
            IMapper mapper = new Mapper(session);
            foreach (CF_Data val in listData)
            {
                try
                {
                    mapper.Insert(val);
                }
                catch (Exception)
                {
                    //throw;
                }
            }
        }
        catch (Exception)
        {
            throw;
        }

我还通过绑定PF_Data实例的每个属性,通过PreparedStatement和BatchStatement插入数据,但是如何将CF_Data的实例(这是要插入的一行)绑定到PreparedStatement。

PreparedStatement ps = session.Prepare(@"INSERT INTO CF_Data
                (
                    Date,
                    Name, ....
                ) " +
                "VALUES (now(),?, ?, ?, ?,?,?,?,?,?,?,?,?,?,?,?,?)");

什么是最好的网络拓扑(replication_factor,snitch,..等),以获得最佳性能和足够的数据副本,以避免单点故障?现在我使用simplestrategy&如同Cassandra团队所说,如何快速阅读?

1 个答案:

答案 0 :(得分:3)

你最好不要使用Insert(***)来执行海量数据迁移,cassandra提供“从**复制**”以从csv导入数据,这可能会导致超过6 M的数据记录超时,以及更好的方法是@jorgebg说是sstableloader加载大量数据,这肯定会满足你的需要。