mongo kafka连接源

时间:2020-01-22 10:44:01

标签: mongodb apache-kafka apache-kafka-connect

我正在使用kafka connect以便从mongo读取数据并将其写入kafka主题。

我正在使用mongo kafka源连接器。

我遇到以下错误:

ERROR Stopping after connector error (org.apache.kafka.connect.cli.ConnectStandalone:115)
java.lang.NoClassDefFoundError: com/mongodb/ConnectionString
    at com.mongodb.kafka.connect.source.MongoSourceConfig.createConfigDef(MongoSourceConfig.java:209)
    at com.mongodb.kafka.connect.source.MongoSourceConfig.<clinit>(MongoSourceConfig.java:138)
    at com.mongodb.kafka.connect.MongoSourceConnector.config(MongoSourceConnector.java:56)
    at org.apache.kafka.connect.connector.Connector.validate(Connector.java:129)
    at org.apache.kafka.connect.runtime.AbstractHerder.validateConnectorConfig(AbstractHerder.java:282)
    at org.apache.kafka.connect.runtime.standalone.StandaloneHerder.putConnectorConfig(StandaloneHerder.java:188)
    at org.apache.kafka.connect.cli.ConnectStandalone.main(ConnectStandalone.java:109)
Caused by: java.lang.ClassNotFoundException: com.mongodb.ConnectionString
    at java.base/java.net.URLClassLoader.findClass(URLClassLoader.java:471)
    at java.base/java.lang.ClassLoader.loadClass(ClassLoader.java:588)
    at org.apache.kafka.connect.runtime.isolation.PluginClassLoader.loadClass(PluginClassLoader.java:104)
    at java.base/java.lang.ClassLoader.loadClass(ClassLoader.java:521)
    ... 7 more

罐子里似乎有罐子。为了获得罐子,我使用了两种不同的方法,但我遇到了相同的错误。首先,我使用来回下载:maven存储库,然后从github存储库中克隆源代码,然后由我自己构建jar。我将罐子推到plugins.path。 当我解压缩生成的jar并进行遍历时,我找不到提到的类:com.mongodb.ConnectionString

我使用了以下配置文件

worker.properties:

 rest.port=18083

# Set to a list of filesystem paths separated by commas (,) to enable class loading isolation for plugins
# (connectors, converters, transformations). The list should consist of top level directories that include 
# any combination of: 
# a) directories immediately containing jars with plugins and their dependencies
# b) uber-jars with plugins and their dependencies
# c) directories immediately containing the package directory structure of classes of plugins and their dependencies
# Note: symlinks will be followed to discover dependencies or plugins.
# Examples: 
# plugin.path=/usr/local/share/java,/usr/local/share/kafka/plugins,/opt/connectors,
plugin.path=/usr/share/java/plugins

internal.key.converter=org.apache.kafka.connect.json.JsonConverter
internal.value.converter=org.apache.kafka.connect.json.JsonConverter
internal.key.converter.schemas.enable=false
internal.value.converter.schemas.enable=false
bootstrap.servers=127.0.0.1:9092

mongo-connector.properties:

name=mongo
tasks.max=1
connector.class =com.mongodb.kafka.connect.MongoSourceConnector
database=
collection=alerts
key.converter = org.apache.kafka.connect.storage.StringConverter
value.converter = org.apache.kafka.connect.storage.StringConverter

topic.prefix=someprefix
poll.max.batch.size=1000
poll.await.time.ms=5000

# Change stream options
pipeline=[]
batch.size=0
change.stream.full.document=updateLookup

然后我通过以下命令启动连接器:

/usr/local/kafka/bin/connect-standalone.sh worker.properties mongo-connector.properties 

任何想法如何解决此问题

2 个答案:

答案 0 :(得分:0)

您必须将连接器的JAR文件放在plugin.path下,在您的情况下为/usr/share/java/plugins

说明Confluent's documentation中已经存在:

Kafka Connect插件为:

一个超级JAR文件,其中包含该插件及其所有的类文件 单个JAR文件中的第三方依赖项;或目录中的 包含用于插件及其插件的JAR文件的文件系统 第三方依赖项。但是,插件不应包含任何插件 Kafka Connect运行时提供的库。

Kafka Connect使用其插件路径查找插件,这是一个 Kafka Connect的目录中以逗号分隔的目录列表 工作人员配置。要安装插件,请放置插件目录 或超级JAR(或解析为其中之一的符号链接) 插件路径上列出的目录,或将插件路径更新为 包含包含插件的目录的绝对路径。

答案 1 :(得分:0)

我花了一些时间找出解决方案时创建了这个答案,正如scalacode指出的那样,最简单的解决方案是从汇合而不是从maven下载jar。

https://www.confluent.io/hub/mongodb/kafka-connect-mongodb