由于我需要以更快的处理速度和更高的可扩展性存储大量数据,所以我选择了hadoop,但我也需要数据协作,我知道sharepoint是它的最佳候选者。
请告诉我如何将sharepoint与hadoop集成 我知道SSIS用于SQL服务器与Hadoop的集成,但我需要实时示例,所以我能够找到它的确切解决方案。
答案 0 :(得分:1)
设置HDFS NFS网关并复制Sharepoint文件。您也可以使用基本脚本将文件放入HDFS。它将需要使用可以访问SharePoint存储库和HDFS客户端的边缘节点。
HDFS NFS网关:https://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-hdfs/HdfsNfsGateway.html
HDFS PUT:https://hadoop.apache.org/docs/r2.7.2/hadoop-project-dist/hadoop-common/FileSystemShell.html#put
如果您已经在使用HDP并将其与Ambari一起安装,则HDFS NFS网关只是通过Ambari添加的另一项服务。