我有一个场景,其中事件中心每10秒获取一次数据,然后传递给流分析,然后传递给Azure SQL Server。如果数据增加2,00,00,000,那么技术团队提出了担心Azure SQL无法处理如此多的数据。然后停止工作。
请您指导我是Azure SQL的实际问题,如果是,那么请您建议我解决方案。
答案 0 :(得分:2)
请注意,4TB是Azure SQL Premium instance的绝对最大尺寸。如果您计划为您的用例存储所有事件,那么这将很快填满。如果您确实需要无限期地存储消息并在使用SQL DW或ADLS处理后使用SQL进行聚合,请考虑使用CosmosDb或Event Hub Capture。
请记住,要优化事件中心,您必须拥有分区策略来优化吞吐量。 See the docs