App Engine的管道提交

时间:2015-11-11 09:00:33

标签: java google-app-engine google-cloud-dataflow

我需要将数据存储区实体发送到BigQuery表,同时进行数据转换。 我的设计到目前为止:
AppEngine Java应用程序将数据发布到PUB / SUB服务中的主题 - 使其正常工作。 然后让DataflowPipeline订阅该主题并阅读该消息。然后完成转换并将结果写入BigQuery。我运行了一些示例代码来测试它。

我有一个原始的Pipeline在我可以运行的本地开发机器上工作 - 所有工作都是演示代码。这是通过本地运行 mvn appengine:devserver

现在的问题是:如何从Google App Engine部署Dataflow Pipeline?开发机器无法访问生产环境,因此无法在Google Pipeline Service上运行我的Pipeline。 我曾尝试从Google App Engine提交此内容,但收到内存不足错误。这似乎与某些身份验证问题有关。从StackOverflow上的其他帖子来看,似乎这就是" deploy"来自App Engine不受支持"官方"。

那么在生产环境中如何做到这一点?

到目前为止的环境依赖:
maven 3.3.0
Google AppEngine 1.9.28
Google API客户端1.20.0
Java 1.7.0_79
工作站 - Windows 7
Google开发环境:黄金套餐
这是我的示例代码,用于运行管道进程....

DataflowPipelineOptions options = PipelineOptionsFactory.create().as(DataflowPipelineOptions.class);
        options.setNumWorkers(2);
        options.setRunner(DataflowPipelineRunner.class);
        options.setStagingLocation("gs://pipeline_bucket2");
        options.setProject("projectname");
        options.setJobName("starterpipeline");
        options.setUpdate(true);

        Pipeline p = Pipeline.create(options);

        p.apply(Create.of("Hello", "World")).apply(ParDo.named("StringExtract").of(new DoFn<String, String>() {
            @Override
            public void processElement(ProcessContext c) {
                c.output(c.element().toUpperCase());
            }
        })).apply(ParDo.named("StringLogger").of(new DoFn<String, Void>() {
            @Override
            public void processElement(ProcessContext c) {
                LOG.info(c.element());
            }
        }));

        p.run();

这是我在尝试运行上述代码时出现错误的堆栈跟踪:

Uncaught exception from servlet
java.lang.OutOfMemoryError: Java heap space
    at java.util.Arrays.copyOf(Arrays.java:2271)
    at java.io.ByteArrayOutputStream.grow(ByteArrayOutputStream.java:118)
    at java.io.ByteArrayOutputStream.ensureCapacity(ByteArrayOutputStream.java:93)
    at java.io.ByteArrayOutputStream.write(ByteArrayOutputStream.java:153)
    at com.google.apphosting.utils.security.urlfetch.URLFetchServiceStreamHandler$Connection$BufferingOutputStream.write(URLFetchServiceStreamHandler.java:586)
    at com.google.api.client.util.ByteStreams.copy(ByteStreams.java:55)
    at com.google.api.client.util.IOUtils.copy(IOUtils.java:94)
    at com.google.api.client.http.AbstractInputStreamContent.writeTo(AbstractInputStreamContent.java:72)
    at com.google.api.client.http.javanet.NetHttpRequest.execute(NetHttpRequest.java:79)
    at com.google.api.client.http.HttpRequest.execute(HttpRequest.java:972)
    at com.google.api.client.googleapis.media.MediaHttpUploader.executeCurrentRequestWithoutGZip(MediaHttpUploader.java:545)
    at com.google.api.client.googleapis.media.MediaHttpUploader.executeCurrentRequest(MediaHttpUploader.java:562)
    at com.google.api.client.googleapis.media.MediaHttpUploader.resumableUpload(MediaHttpUploader.java:419)
    at com.google.api.client.googleapis.media.MediaHttpUploader.upload(MediaHttpUploader.java:336)
    at com.google.api.client.googleapis.services.AbstractGoogleClientRequest.executeUnparsed(AbstractGoogleClientRequest.java:427)
    at com.google.api.client.googleapis.services.AbstractGoogleClientRequest.executeUnparsed(AbstractGoogleClientRequest.java:352)
    at com.google.api.client.googleapis.services.AbstractGoogleClientRequest.execute(AbstractGoogleClientRequest.java:469)
    at com.google.cloud.hadoop.util.AbstractGoogleAsyncWriteChannel$UploadOperation.call(AbstractGoogleAsyncWriteChannel.java:357)
    at java.util.concurrent.FutureTask.run(FutureTask.java:260)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1168)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:605)
    at com.google.apphosting.runtime.ApiProxyImpl$CurrentRequestThreadFactory$1$1.run(ApiProxyImpl.java:1152)
    at java.security.AccessController.doPrivileged(Native Method)
    at com.google.apphosting.runtime.ApiProxyImpl$CurrentRequestThreadFactory$1.run(ApiProxyImpl.java:1146)
    at java.lang.Thread.run(Thread.java:745)
    at com.google.apphosting.runtime.ApiProxyImpl$CurrentRequestThreadFactory$2$1.run(ApiProxyImpl.java:1195)

1 个答案:

答案 0 :(得分:3)

在上传应用程序工件时,Dataflow与Google Cloud Storage通信时使用64mb缓冲区。如果您使用的实例没有足够的内存,可能会导致OOM,例如,如果您使用带有128mb内存的AppEngine instance

另请注意,每当您更新模块或AppEngine进行内部更新时,首次执行Dataflow管道,Dataflow SDK都需要上传所有已更改为Google Cloud Storage的应用程序工件。根据应用程序的大小,这可能需要60多秒,这是前端实例请求的限制,可能会导致deadline exceeded errors