apache.kafka/connect-api --> <dependency> <groupId>org.apache.kafka</groupId> <artifactId>connect-api</artifactId> <version>2.6.0</version> </dependency> Task 代码语言:javascript 代码运行次数:0 运行 AI代码解释 /* * Licensed to the Apache Software Foundation (ASF) under one or more * ...
connect 的 rest api 用户定义的资源,如过滤器。通常用于添加自定义功能,如日志记录、安全等。 retry.backoff.ms type: long default: 100 valid values: [0,…] importance: low 尝试重试失败的请求到给定主题分区前等待的时间。这可避免在某些故障情况下在严格的循环中...
允许应用程序订阅一个或者多个主题,并处理这些主题接收到的记录流。 3、StreamsAPI 代码语言:javascript 代码运行次数:0 运行 AI代码解释 允许应用程序充当流处理器(stream processor),从一个或者多个主题获取输入流,并生产一个输出流到一个或 者多个主题,能够有效的变化输入流为输出流。 4、ConnectAPI 代码语言:java...
53.3. Cruise Control REST API 安全性 53.4. brokerCapacity 53.5. 容量覆盖 53.6. logging 53.7. CruiseControlSpec 模式属性 69. KafkaConnectSpec 模式参考 KafkaConnectSpec 模式参考 69.1. config 69.2. logging 69.3. KafkaConnectSpec 模式属性 70. ClientTls 模式参考 ...
1,kafka连接器通用框架:kafka connect 规范了kafka和其他数据系统集成,简化了开发、部署和管理。 2,分布式和单机式:扩展到大型支持整个organization的集中管理服务,也可以缩小到开发,测试和小规模生产部署。 3,REST接口:通过rest API 来提交(和管理)Connector到kafka connect 集群。
Apache Kafka Official Documentation, Kafka Connect Guide Building your First Connector for Kafka Connect Tip Use Kafka Connect instead of Producer/Consumer Clients when Connecting to Datastores While you could write your own application to connect Apache Kafka to a specific datastore using producer and...
51CTO博客已为您找到关于kafka connect api的相关内容,包含IT学习相关文档代码介绍、相关教程视频课程,以及kafka connect api问答内容。更多kafka connect api相关解答可以来51CTO博客参与分享和学习,帮助广大IT技术人实现成长和进步。
如果需要了解Kafka Connect更详细的使用方法,请参见Kafka官网资料https://kafka.apache.org/documentation/?spm=a2c4g.11186623.2.28.15297af1wj9SpN#connect和REST API https://docs.confluent.io/current/connect/references/restapi.html?spm=a2c4g.11186623.2.29.15297af1DnX5y5。
AWS API Documentation deleteConnector DeleteConnectorResultdeleteConnector(DeleteConnectorRequestdeleteConnectorRequest) Deletes the specified connector. Parameters: deleteConnectorRequest- Returns: Result of the DeleteConnector operation returned by the service. ...
If you want to call a DataStream API to read or write data, you must use a DataStream connector of the related type to connect to Realtime Compute for Apache Flink. For more information about how to configure a DataStream connector, see Settings of DataStream connectors. Create a Kafka sou...