Spark-ETL将数据加载到累积故障中

时间:2019-07-12 22:30:19

标签: accumulo geotrellis

当我学会使用 geotrellis 将数据加载到 accumulo 时,我遇到了一个问题:

  

线程“主”中的异常   geotrellis.spark.io.package $ LayerWriteError:写入失败   图层(名称=“示例”,缩放= 13)......   rg.apache.accumulo.core.client.AccumuloException:   文件:/ geotrellis-ingest / 726314aa-5b72-4f9c-9c41-f9521a045603-O45VGIHPpi:   java.io.IOException:   文件:/ geotrellis-ingest / 726314aa-5b72-4f9c-9c41-f9521a045603-O45VGIHPpi   不在为Accumulo配置的卷中

以下是我的配置文件的图像: config

config

config

1 个答案:

答案 0 :(得分:0)

我不熟悉地理网格或火花,但错误消息表明正在bulk import上尝试filesystems (volumes)进入Accumulo,这是Accumulo不支持的。

您批量导入的文件必须位于已经配置为在Accumulo中使用的卷上。 Accumulo会将同一卷中的文件移动到其自己的目录,但不会跨卷移动它们。要配置在Accumulo中使用的卷,请参阅instance.volumes的文档。