如何通过Spark SQL与BigQuery连接?

时间:2019-04-10 10:37:47

标签: apache-spark pyspark google-bigquery pyspark-sql amazon-emr

我有一个简单的python代码,其中包括使用具有我的凭据的JSON文件与bigQuery连接。

data = pd.read_gbq(SampleQuery, project_id='XXXXXXXX', private_key='filename.json')

这里filename.json具有以下格式:

{
  "type": "service_account",
  "project_id": "projectId",
  "private_key_id": "privateKeyId",
  "private_key": "privateKey",
  "client_email": "clientEmail",
  "client_id": "clientId",
  "auth_uri": "https://accounts.google.com/o/oauth2/auth",
  "token_uri": "https://oauth2.googleapis.com/token",
  "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
  "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/clientEmail"
}

现在,我需要将此代码移植到pyspark。但是我在寻找如何使用Spark SQL查询时遇到了困难。我正在使用AWS EMR集群来运行此查询!

任何帮助将不胜感激!

2 个答案:

答案 0 :(得分:1)

您的 submit pyspark 参数之一应该是带有spark-bigquery-latest.jar包的 jars ,这就是我将其添加到Google Cloud上的dataproc作业中的方式:< / p>

gcloud dataproc jobs submit pyspark --cluster ${CLUSTER_NAME} jars gs://spark-lib/bigquery/spark-bigquery-latest.jar --driver-log-levels root=FATAL script.py

答案 1 :(得分:0)

由于需要使用SQLContext对象才能使用Spark SQL,因此需要首先配置SparkContext以连接到BigQuery。从我的角度来看,BigQuery Connector(由sramalingam24和Kenneth Jung解决)可用于在BigQuery中查询数据。

请注意,sramalingam24提供了链接示例,以下是代码摘要:

bucket = sc._jsc.hadoopConfiguration().get('fs.gs.system.bucket')
project = sc._jsc.hadoopConfiguration().get('fs.gs.project.id')
input_directory = 'gs://{}/hadoop/tmp/bigquery/pyspark_input'.format(bucket)

conf = {
    # Input Parameters.
    'mapred.bq.project.id': project,
    'mapred.bq.gcs.bucket': bucket,
    'mapred.bq.temp.gcs.path': input_directory,
    'mapred.bq.input.project.id': 'publicdata',
    'mapred.bq.input.dataset.id': 'samples',
    'mapred.bq.input.table.id': 'shakespeare',
}

table_data = sc.newAPIHadoopRDD(
    'com.google.cloud.hadoop.io.bigquery.JsonTextBigQueryInputFormat',
    'org.apache.hadoop.io.LongWritable',
    'com.google.gson.JsonObject',
    conf=conf)

word_counts = (
    table_data
    .map(lambda record: json.loads(record[1]))
    .map(lambda x: (x['word'].lower(), int(x['word_count'])))
    .reduceByKey(lambda x, y: x + y))

sql_context = SQLContext(sc)
(word_counts
 .toDF(['word', 'word_count'])
 .write.format('json').save(output_directory))

然后,您可以下载connector jar for Other Hadoop clusters。肯尼思·荣格(Kenneth Jung)提供的链接带有信息,表明建议--jar选项可用于包括连接器(--jars gs://spark-lib/bigquery/spark-bigquery-latest.jar),该选项可包括在驱动程序和执行程序类路径上的jar。