使用Azure Data Factory将数据从SAP BW复制到Azure Data Lake Store

时间:2018-02-21 12:00:24

标签: azure integration azure-data-factory azure-data-lake sap-bw

我一直在尝试将一些数据从内部部署的SAP BW复制到云Azure Data Lake Store。我已经将接收器配置为Data Lake Store,但是我无法配置源。已经下载了netweaver库并将dll放在我的系统32文件夹中,并创建了在我的本地机器上运行的集成运行时。有人曾尝试过这个吗?

由于

2 个答案:

答案 0 :(得分:0)

如果您没有任何其他SAP Data Services或HANA工具,我建议使用SAP Open Hub功能SAP BW生成平面文件。然后可以将文件加载到HDFS,这是Azure数据湖存储。

此建议的原因: 1. SAP BW Open hub对于开发人员而言非常容易,甚至对于非SAP-BW人员也是如此。 2.我不建议使用netweaver RFC(dll库)方法与SAP BW集成,因为这主要使用MDX来读取BW数据,并对BW元数据进行大量编码和理解。 3.这可以确保不会违反SAP数据分发许可。

希望这可以提供帮助。

答案 1 :(得分:0)

@lei nw库Fabricio提到必须是nwlibrfc32.dll,必须由客户手动注入,以便ADF可以使用BW数据源。这是PowerBI服务访问BW数据源的共享框架。从技术上讲,它是可行的,Fabricio必须确保注入正确的DLL(32位对64位)。如果没有错误日志,我们必须推测。

但是,从解决方案的角度来看,请理解由于BW连接器的底层MDX引擎和结果处理器的瓶颈,这不会是一种执行方式。如果音量很小,那么就没有问题。否则,我们需要审查其他选项。如果用户可以在BW中处理一组批处理作业管理并在Azure中处理单独的ADF作业管理集,则可以选择Open Hub。从IT敏捷性的角度来看,耦合两组操作流程并不是最好的方法。

要考虑的另一个选择是推迟ADF,而是选择SSIS。使用SSIS与Azure Feature Pack一起加载SAP数据,就像我们一样。但这也许不是最好的方法,因为如果Fabricio的团队已经投资ADF,就不再有ADF了。或许他们喜欢SSIS。总而言之,必须在可持续解决方案上进行一定程度的权衡。

回到原来的问题,请发布错误详情,我们可以帮助调查。