MongoDB and its Connector for Apache Kafka are core to event-driven architecture, which helps you run your business in real time. Learn more MongoDB and IIoT: Data Streaming With Kafka Move data seamlessly from
MongoDB Connector for Apache Spark MongoDB Connector for Apache Spark 公开了 Spark 的所有库,包括 Scala、Java、Python 和 R。 了解详情 MongoDB Connector for Apache Kafka 借助官方 MongoDB Connector for Apache Kafka,轻松将 MongoDB 作为 Apache Kafka 数据管道中的源或接收器进行集成。 了解详情 Mongo...
This version of the documentation is archived and no longer supported. View the current documentation to learn how to upgrade your version of the MongoDB Kafka Connector. Overview The MongoDB Connector for Apache Kafka is a Confluent-verified connector that persists data from Apache Kafka topics ...
集成与流处理:通过MongoDB Connector for ApacheKafka,可以直接从Kafka主题中创建时间序列集合,实现数据的实时处理、聚合和写入。 智能索引与查询:时间序列集合自动创建时间排序的聚集索引,减少查询延迟,同时扩展了查询API,支持窗口函数和时间运算符,如移动平均、累积总和、指数移动平均等。 统一的数据平台:时间序列集合可以...
集成与流处理:通过MongoDB Connector for Apache Kafka,可以直接从Kafka主题中创建时间序列集合,实现数据的实时处理、聚合和写入。 智能索引与查询:时间序列集合自动创建时间排序的聚集索引,减少查询延迟,同时扩展了查询API,支持窗口函数和时间运算符,如移动平均、累积总和、指数移动平均等。
具体来说,如果你使用的是 Flink 1.13.5,可以选择 MongoDB Connector for Apache Flink 1.3.0 ...
最新发布的MongoDB Connector for Apache Kafka实现了在本地支持时间序列,您可以直接从Kafka主题消息中自动创建时间序列集合,使您在收集数据的同时根据需要对数据进行处理和聚合,然后写入到MongoDB的时间序列集合。 时间序列集合自动创建一个按时间排序的数据聚集索引,降低查询数据的延迟。MongoDB查询API还扩展了窗口函数,...
源连接器是 Kafka Connect Connector,它从 MongoDB 读取数据并将数据写入 Apache Kafka。 源连接器的工作原理是使用 MongoDB 打开单个 change stream 并将数据从该 change stream 发送到 Kafka Connect。您的源连接器在其运行期间维护其 change stream,并且当您停止运行时,您的连接器将关闭其 change stream。
通过业界领先的多模式数据平台,支持多种数据结构和类型可轻松调整以处理新的数据类型,这些数据具有灵活的模式和类似 JSON 的文档模型,允许不同的文档包含不同的字段借助适用于 Apache Kafka 的 MongoDB Connector(支持时间序列数据),无缝获取云存储数据以及传统的批处理数据和事件驱动型数据组合、丰富和分析数据借助...
使用MongoDB Connector for Apache Kafka:将MongoDB的数据实时同步到Elasticsearch。使用第三方工具:如...