我有两个类似的模式,其中只有一个嵌套字段发生变化(在schema1中称为onefield
,在schema2中称为anotherfield
。
schema1
{
"type": "record",
"name": "event",
"namespace": "foo",
"fields": [
{
"name": "metadata",
"type": {
"type": "record",
"name": "event",
"namespace": "foo.metadata",
"fields": [
{
"name": "onefield",
"type": [
"null",
"string"
],
"default": null
}
]
},
"default": null
}
]
}
SCHEMA2
{
"type": "record",
"name": "event",
"namespace": "foo",
"fields": [
{
"name": "metadata",
"type": {
"type": "record",
"name": "event",
"namespace": "foo.metadata",
"fields": [
{
"name": "anotherfield",
"type": [
"null",
"string"
],
"default": null
}
]
},
"default": null
}
]
}
我能够使用avro 1.8.0以编程方式合并两个模式:
Schema s1 = new Schema.Parser().parse(schema1);
Schema s2 = new Schema.Parser().parse(schema2);
Schema[] schemas = {s1, s2};
Schema mergedSchema = null;
for (Schema schema: schemas) {
mergedSchema = AvroStorageUtils.mergeSchema(mergedSchema, schema);
}
并使用它将输入json转换为avro或json表示:
JsonAvroConverter converter = new JsonAvroConverter();
try {
byte[] example = new String("{}").getBytes("UTF-8");
byte[] avro = converter.convertToAvro(example, mergedSchema);
byte[] json = converter.convertToJson(avro, mergedSchema);
System.out.println(new String(json));
} catch (AvroConversionException e) {
e.printStackTrace();
}
该代码显示预期输出:{"metadata":{"onefield":null,"anotherfield":null}}
。问题是我无法看到合并的架构。如果我做一个简单的System.out.println(mergedSchema)
,我会得到以下异常:
Exception in thread "main" org.apache.avro.SchemaParseException: Can't redefine: merged schema (generated by AvroStorage).merged
at org.apache.avro.Schema$Names.put(Schema.java:1127)
at org.apache.avro.Schema$NamedSchema.writeNameRef(Schema.java:561)
at org.apache.avro.Schema$RecordSchema.toJson(Schema.java:689)
at org.apache.avro.Schema$RecordSchema.fieldsToJson(Schema.java:715)
at org.apache.avro.Schema$RecordSchema.toJson(Schema.java:700)
at org.apache.avro.Schema.toString(Schema.java:323)
at org.apache.avro.Schema.toString(Schema.java:313)
at java.lang.String.valueOf(String.java:2982)
at java.lang.StringBuilder.append(StringBuilder.java:131)
我称之为avro不确定性原则:)。看起来avro能够使用合并模式,但在尝试将模式序列化为JSON时失败。合并使用更简单的模式,所以它听起来像avro 1.8.0中的一个错误。
您知道可能发生的事情或如何解决吗?任何解决方法(例如:替代Schema
序列化程序)都是受欢迎的。
答案 0 :(得分:1)
我在pig util类中发现了同样的问题......实际上这里有2个错误
Schema mergedSchema = SchemaUtil.merge(s1, s2);
从您的示例中,我得到以下输出
{
"type": "record",
"name": "event",
"namespace": "foo",
"fields": [
{
"name": "metadata",
"type": {
"type": "record",
"name": "event",
"namespace": "foo.metadata",
"fields": [
{
"name": "onefield",
"type": [
"null",
"string"
],
"default": null
},
{
"name": "anotherfield",
"type": [
"null",
"string"
],
"default": null
}
]
},
"default": null
}
]
}
希望这会有助于其他人。
答案 1 :(得分:1)
Avro文件尚不支持合并架构功能。 但是,可以说如果您在一个目录中包含avro文件,而其中的avro文件具有多个架构,这些文件具有不同的架构,例如:/ demo,则可以通过spark using读取它。并提供一个主模式文件(即.avsc文件),因此spark将在内部读取该文件中的所有记录,如果有一个文件缺少列,则显示空值。
object AvroSchemaEvolution {
def main(args: Array[String]): Unit = {
val schema = new Schema.Parser().parse(new File("C:\\Users\\murtazaz\\Documents\\Avro_Schema_Evolution\\schema\\emp_inserted.avsc"))
val spark = SparkSession.builder().master("local").getOrCreate()
val df = spark.read
.format("com.databricks.spark.avro").option("avroSchema", schema.toString)
.load("C:\\Users\\murtazaz\\Documents\\Avro_Schema_Evolution\\demo").show()
}
}