当数据从oracle转移到Hive时,汇合格式会发生变化

时间:2017-01-16 03:18:46

标签: hive schema avro apache-kafka-connect confluent

使用汇合时遇到问题,我创建了一个带有ID作为增量列的jdbc源,以及一个将数据写入Hive的HDFS接收器。

毕竟,我使用Hive来探索Hive中的数据,我可以看到的是ID列是" int"在Oracle中变成了"二进制"在Hive中,时间列是" date"在Oracle中变成了#34;时间戳"在蜂巢。

以下是架构寄存器的详细信息:

{
\"type\": \"record\",
\"name\": \"GAYS_KAKOUXINXI\",
\"fields\": [
    {
        \"name\": \"ID\",
        \"type\": [
            \"null\",
            {
                \"type\": \"bytes\",
                \"connect.version\": 1,
                \"connect.parameters\": {
                    \"scale\": \"0\"
                },
                \"connect.name\": \"org.apache.kafka.connect.data.Decimal\"
            }
        ]
    },
    {
        \"name\": \"DEP_ACTION_FLAG\",
        \"type\": [
            \"null\",
            \"string\"
        ]
    },
    {
        \"name\": \"SBMC\",
        \"type\": [
            \"null\",
            \"string\"
        ]
    },
    {
        \"name\": \"FXMC\",
        \"type\": [
            \"null\",
            \"string\"
        ]
    },
    {
        \"name\": \"FXLX\",
        \"type\": [
            \"null\",
            \"string\"
        ]
    },
    {
        \"name\": \"DD\",
        \"type\": [
            \"null\",
            \"string\"
        ]
    },
    {
        \"name\": \"KKJD\",
        \"type\": [
            \"null\",
            \"string\"
        ]
    },
    {
        \"name\": \"DEP_ACTION_TIME\",
        \"type\": [
            \"null\",
            {
                \"type\": \"long\",
                \"connect.version\": 1,
                \"connect.name\": \"org.apache.kafka.connect.data.Timestamp\"
            }
        ]
    },
    {
        \"name\": \"KKMC\",
        \"type\": [
            \"null\",
            \"string\"
        ]
    },
    {
        \"name\": \"GCSJ\",
        \"type\": [
            \"null\",
            \"string\"
        ]
    },
    {
        \"name\": \"CSYS\",
        \"type\": [
            \"null\",
            \"string\"
        ]
    }
],
\"connect.name\": \"GAYS_KAKOUXINXI\"
}

这是我的schema-registry.properties:

listeners=http://0.0.0.0:18081
kafkastore.connection.url=localhost:2171
kafkastore.topic=_schemas
debug=false

这是我的connect-avro-distributed.properties:

bootstrap.servers=localhost:9092

group.id=connect-cluster


key.converter=io.confluent.connect.avro.AvroConverter
key.converter.schema.registry.url=http://localhost:8081
value.converter=io.confluent.connect.avro.AvroConverter
value.converter.schema.registry.url=http://localhost:8081


internal.key.converter=org.apache.kafka.connect.json.JsonConverter
internal.value.converter=org.apache.kafka.connect.json.JsonConverter
internal.key.converter.schemas.enable=false
internal.value.converter.schemas.enable=false


config.storage.topic=connect-configs


offset.storage.topic=connect-offsets


status.storage.topic=connect-statuses

producer.interceptor.classes=io.confluent.monitoring.clients.interceptor.MonitoringProducerInterceptor
consumer.interceptor.classes=io.confluent.monitoring.clients.interceptor.MonitoringConsumerInterceptor

这是怎么发生的?我该如何解决这个问题?这是架构注册表配置的问题吗?

致以最诚挚的问候,

费兰

0 个答案:

没有答案