Power BI 上来自 Cassandra 数据库的实时数据流

时间:2021-03-05 06:51:44

标签: powershell apache-kafka cassandra powerbi real-time

在当前架构中,Power BI 数据集通过网关连接到 oracle 数据库,服务上的数据集按计划进行刷新。

然而,由于代码量大、表中数据量大导致oracle不一致,cline正在寻求将整个架构更改为实时数据的Kafka和Cassandra数据库。 因此,客户正在寻找有关 Power BI 的实时数据,那么我们如何实现应连接到 Cassandra 数据库并将实时数据推送到仪表板的流数据集..

谢谢!

1 个答案:

答案 0 :(得分:0)

如果您有大量数据,那么 Power BI 流数据集将不适合此类工作负载。请查看 Power BI 流数据集 here 的限制。您没有提到您需要什么样的流数据要求的用例,但流数据集大小限制为 1 小时历史保留的数据集为 200,000 行,或具有保留策略的数据集的 5,000,000 行。

如果数据量足够低,您必须将数据从 Cassandra 发送到 Azure 事件中心,再到流式分析到 Power BI。如果数据量很大,则需要将数据推送到可以处理流的数据库,例如 Azure Databricks,然后连接到该数据的 Power BI 或使用 Databricks 将其推送到数据库,以便 Power BI 可以使用直接查询方式,查询时获取最新数据。