Pipeline应该将多个表从本地SQL Server复制到ADLS Parquet文件(在每个处理过程中拖放并创建)。接收依赖于自托管的集成运行时。配置过程中的所有测试均成功(即,表结构已成功检索,连接测试均为绿色等)。但是,管道会产生以下执行错误:
Activity Copy_DetailPricingLevelHierarchy failed: Failure happened on 'Sink' side. ErrorCode=UserErrorFailedFileOperation,'Type=Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,Message=Upload file failed at path Intake/MySource\PricingLevelHierarchy.,Source=Microsoft.DataTransfer.Common,''Type=System.InvalidOperationException,Message=Internal connection fatal error. Error state: 18,Source=System.Data,'
我无法理解实际失败的原因。
验证和尝试解决该问题:
请告知,还有哪些其他配置可能导致接收器故障。
答案 0 :(得分:1)
要在自托管集成运行时中使用Parquet格式,您需要安装Java运行时环境(JRE)。
摘自Parquet格式的有关Azure Data Factory支持的文件格式的Microsoft文档部分:
对于由自托管集成运行时授权的副本,例如之间 本地和云数据存储(如果您不复制Parquet) 文件,请安装64位JRE 8(Java运行时 环境)或IR机器上的OpenJDK。