没有用于方案的文件系统:当提交用于向主管创建数据源的德鲁伊任务时的HTTP

时间:2018-01-17 10:21:11

标签: hadoop2 druid

  1. 设置:HDFS ---集群(1-master,2 Slaves)德鲁伊---集群(1-(zk,协调员,重载),1-(历史,中间经理),1-(经纪人)) 版本用于德鲁伊:暗示-2.3.9,HDFS:2.7.3
  2. 针对德鲁伊的common.runtime.properties:对于HDFS:

    druid.storage.type = HDFS druid.storage.storageDirectory = http://hadoopmachince:9000/druid/segments

  3. 当我将任务发布到http://druidip:port/druid/indexer/v1/supervisor以创建数据源时。任务因以下异常而失败。

    错误堆栈跟踪: 1)注入构造函数时出错,java.io.IOException:没有用于scheme的文件系统:http   在io.druid.storage.hdfs.HdfsDataSegmentPusher。(HdfsDataSegmentPusher.java:63)   在找到io.druid.storage.hdfs.HdfsDataSegmentPusher时   在io.druid.storage.hdfs.HdfsStorageDruidModule.configure(HdfsStorageDruidModule.java:97)(通过模块:com.google.inject.util.Modules $ OverrideModule - > io.druid.storage.hdfs.HdfsStorageDruidModule)   查找使用@ com.google.inject.multibindings.Element注释的io.druid.segment.loading.DataSegmentPusher(setName =,uniqueId = 152,type = MAPBINDER,keyType = java.lang.String)

1 个答案:

答案 0 :(得分:0)

需要从http更改为hdfs

针对德鲁伊的common.runtime.properties:对于HDFS:

druid.storage.type = hdfs druid.storage.storageDirectory = hdfs:// hadoopmachince:9000 / druid / segments