针对德鲁伊的common.runtime.properties:对于HDFS:
druid.storage.type = HDFS druid.storage.storageDirectory = http://hadoopmachince:9000/druid/segments
当我将任务发布到http://druidip:port/druid/indexer/v1/supervisor以创建数据源时。任务因以下异常而失败。
错误堆栈跟踪: 1)注入构造函数时出错,java.io.IOException:没有用于scheme的文件系统:http 在io.druid.storage.hdfs.HdfsDataSegmentPusher。(HdfsDataSegmentPusher.java:63) 在找到io.druid.storage.hdfs.HdfsDataSegmentPusher时 在io.druid.storage.hdfs.HdfsStorageDruidModule.configure(HdfsStorageDruidModule.java:97)(通过模块:com.google.inject.util.Modules $ OverrideModule - > io.druid.storage.hdfs.HdfsStorageDruidModule) 查找使用@ com.google.inject.multibindings.Element注释的io.druid.segment.loading.DataSegmentPusher(setName =,uniqueId = 152,type = MAPBINDER,keyType = java.lang.String)
答案 0 :(得分:0)
需要从http更改为hdfs
针对德鲁伊的common.runtime.properties:对于HDFS:
druid.storage.type = hdfs druid.storage.storageDirectory = hdfs:// hadoopmachince:9000 / druid / segments