我正在尝试通过spark数据框将批量数据插入Databricks中的Sql服务器数据仓库。为此,我使用具有服务原则的pyodbc模块(不是通过使用jdbc)。我已经通过单插入实现了。我找不到将批量数据插入sql server数据仓库的方法。有人可以帮我一种插入方法批量存储数据?
答案 0 :(得分:0)
此处的示例:https://docs.databricks.com/spark/latest/data-sources/azure/sql-data-warehouse.html
尽管这通常建议您在两者之间使用一个Blob存储帐户。
您还可以使用标准的SQL接口:https://docs.databricks.com/spark/latest/data-sources/sql-databases.html
但是您不能使用服务主体-您将需要SQL登录名。我会将连接字符串作为秘密存储在密钥库中(使用SQL登录名)。使用服务主体获取机密,然后使用connetionstring连接到SQL。
答案 1 :(得分:0)
您可以使用polybase很好地做到这一点,它将需要一个位置来存储临时文件:
https://docs.databricks.com/data/data-sources/azure/sql-data-warehouse.html#azure-sql-data-warehouse