Hive外部表映射到Azure Blob存储

时间:2018-07-20 07:13:40

标签: apache-spark hive azure-storage hana

是否可以使用指向Azure存储的位置来创建Hive外部表?我们实际上想将SAP HANA (SDA)连接到Blob存储,所以看来唯一的方法是先创建一个外部Azure配置表,该表指向Azure Blob存储,然后使用Hive ODBC连接器/火花连接器to connect it to HANA SAP `。有谁知道如何实现这一目标?

1 个答案:

答案 0 :(得分:0)

您可以在Azure的Hive或Spark中创建外部表。有几种可用的选项:

  • Azure HDInsight
  • Azure Databricks(通过Spark)
  • 支持Azure Blob存储(例如HDP)的Hadoop发行版

外部表创建将引用Blob存储帐户中的数据。有关在HDInsight中创建的Hive表的信息,请参见以下示例(在该位置使用wasb):

CREATE EXTERNAL TABLE IF NOT EXISTS <database name>.<external textfile table name>
    (
        field1 string,
        field2 int,
        ...
        fieldN date
    )
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '<field separator>'
        lines terminated by '<line separator>' STORED AS TEXTFILE
        LOCATION 'wasb:///<directory in Azure blob>' 
TBLPROPERTIES("skip.header.line.count"="1");

或在Azure Databricks中:

CREATE EXTERNAL TABLE IF NOT EXISTS my_table (name STRING, age INT)
   COMMENT 'This table is created with existing data'
   LOCATION 'wasbs://<storage-account@<containername>.blob.core.windows.net/<directory>'

另请参阅:

我不知道SAP支持什么。 ODBC-Access可以用于所有解决方案。