这是我阅读云存储文件的方法
public static String getStringObject(String bucketName, String fileName) throws Exception{
BlobId blobId = BlobId.of(bucketName, fileName);
byte[] content = storage.readAllBytes(blobId);
String contentString = new String(content, UTF_8);
return contentString;
}
当我从开发环境调用此方法从存储桶中读取文件时,它可以正常工作。但是当我在运行spark作业时从Dataproc集群调用此方法时,它会抛出以下错误。
Exception in thread "main" java.lang.NoSuchMethodError: com.google.common.util.concurrent.MoreExecutors.directExecutor()Ljava/util/concurrent/Executor;
at com.google.api.gax.retrying.BasicRetryingFuture.<init>(BasicRetryingFuture.java:77)
at com.google.api.gax.retrying.DirectRetryingExecutor.createFuture(DirectRetryingExecutor.java:75)
at com.google.cloud.RetryHelper.runWithRetries(RetryHelper.java:53)
at com.google.cloud.storage.StorageImpl.readAllBytes(StorageImpl.java:460)`
以下是我maven pom.xml的部分内容
<dependency>
<groupId>com.google.cloud</groupId>
<artifactId>google-cloud-storage</artifactId>
<version>1.4.0</version>
</dependency>
<dependency>
<groupId>com.google.guava</groupId>
<artifactId>guava</artifactId>
<version>19.0</version>
</dependency>
<dependency>
<groupId>com.google.api-client</groupId>
<artifactId>google-api-client</artifactId>
<version>1.22.0</version>
</dependency>
我在这里做错了什么?
答案 0 :(得分:2)
在Dataproc上运行时,您经常会在客户端应用程序类路径上找到Hadoop库。这允许与HDFS和GCS交互,但也意味着存在番石榴的Hadoop版本。
您可以在SO answer
中找到使用阴影解决此问题的方法