我一直在尝试将一些数据从本地 SAP BW 复制到云 Azure Data Lake Store。我已将接收器配置为 Data Lake Store,但无法配置源。已经下载了 netweaver 库并将 dll 放在我的系统 32 文件夹中,并创建了在我的本地机器上运行的集成运行时。有没有人试过这个?
谢谢
我一直在尝试将一些数据从本地 SAP BW 复制到云 Azure Data Lake Store。我已将接收器配置为 Data Lake Store,但无法配置源。已经下载了 netweaver 库并将 dll 放在我的系统 32 文件夹中,并创建了在我的本地机器上运行的集成运行时。有没有人试过这个?
谢谢
@lei,Fabricio 提到的 nw 库必须是 nwlibrfc32.dll,它必须由客户手动注入,以便 ADF 可以与 BW 数据源一起使用。这是 PowerBI 服务访问 BW 数据源的共享框架。从技术上讲,这是可行的,Fabricio 必须确保注入正确的 DLL(32 位与 64 位)。没有错误日志,我们必须推测。
但是,从解决方案的角度来看,由于底层 MDX 引擎和 BW 连接器的结果处理器存在瓶颈,请理解这不会成为一种执行方式。如果体积小,则没有问题。否则,我们需要审查其他选项。如果用户可以在 BW 中处理一组批处理作业管理并在 Azure 中处理一组单独的 ADF 作业管理,则 Open Hub 可能是一个选项。从 IT 敏捷性的角度来看,耦合两组操作流程并不是最佳方法。
另一个要考虑的选择是推迟使用 ADF,而是选择 SSIS。像我们一样,使用 SSIS 通过 Azure 功能包加载 SAP 数据。但这也可能不是最好的方法,因为如果 Fabricio 的团队已经投资了 ADF,就不再有 ADF。或者他们可能更喜欢 SSIS。总而言之,必须对可持续解决方案进行某种程度的权衡。
回到最初的问题,请发布错误详细信息,我们可以帮助调查。
如果您没有任何其他 SAP 数据服务或 HANA 工具,我建议使用 SAP Open Hub 功能 SAP BW 生成平面文件。然后可以将文件加载到 HDFS,这是 Azure 数据湖存储。
推荐理由: 1. SAP BW Open hub 对开发人员甚至非 SAP-BW 人员都很容易。2. 我不建议使用 netweaver RFC(dll 库)方法与 SAP BW 集成,因为这主要使用 MDX 来读取具有重要编码和对 BW 元数据的理解的 BW 数据。3. 这可以确保不违反 SAP 数据分发许可。
希望这能有所帮助。
雷