metrics_path:Prometheus 服务器上用于访问指标的路径。 scrape_interval:抓取间隔时间,单位为秒。 scrape_timeout:抓取超时时间,单位为秒。 scrape_configs 参数: job_name:作业名称,用于标识数据采集任务。 targets:目标地址列表,用于指定抓取数据的地址。 metrics_path:目标上用于访问指标的路径。 params:请求参数列表...
一个scrape_config 片段指定一组目标和参数, 目标就是实例,指定采集的端点, 参数描述如何采集这些实例, 主要参数如下 scrape_interval: 抓取间隔,默认继承global值。 scrape_timeout: 抓取超时时间,默认继承global值。 metric_path: 抓取路径, 默认是/metrics scheme: 指定采集使用的协议,http或者https。 params: 指定...
一个scrape_config 片段指定一组目标和参数, 目标就是实例,指定采集的端点, 参数描述如何采集这些实例, 主要参数如下 scrape_interval: 抓取间隔,默认继承global值。 scrape_timeout: 抓取超时时间,默认继承global值。 metric_path: 抓取路径, 默认是/metrics scheme: 指定采集使用的协议,http或者https。 params: 指定...
job_name:<job_name># 从job中抓取目标的频率.[scrape_interval:<duration>|default=<global_config.scrape_interval>]# 抓取此job时,每次抓取超时时间.[scrape_timeout:<duration>|default=<global_config.scrape_timeout>]# 从目标获取指标的HTTP资源路径.[metrics_path:<path>|default=/metrics]# honor_labels...
scrape_configs: - job_name: ''prometheus'' static_configs: - targets: ['localhost:9090'] kind: ConfigMap metadata: name: prometheus-config 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 使用kubectl命令行工具,在命名空间default创建ConfigMap资源: ...
1.1<scrape_config> <scrape_config>部分指定一组描述如何刮除它们的目标和参数。 在一般情况下,一个scrape配置指定单个作业。 在高级配置中,这可能会改变。 目标可以通过<static_configs>参数静态配置,也可以使用其中一种支持的服务发现机制动态发现。 此外,<relabel_configs>允许在抓取之前对任何目标及其标签进行高级...
params:#(可选的)HTTP URL参数。[<string>:[<string>,...]]authorization:# 使用配置的凭据在每个scrape请求上设置“Authorization”头。 # Sets the authenticationtypeof the request.[type:<string>|default:Bearer]# Sets the credentials of the request.It is mutually exclusive with`credentials_file`.[cr...
scrape_configs:[-<scrape_config>...]# 此片段指定报警配置, 这里主要是指定prometheus将报警规则推送到指定的alertmanager实例地址。alerting:alert_relabel_configs:[-<relabel_config>...]alertmanagers:[-<alertmanager_config>...]# 指定后端的存储的写入api地址。remote_write:[-<remote_write>...]# 指定...
relabel_configs: - source_labels: [__meta_kubernetes_namespace, __meta_kubernetes_service_name, __meta_kubernetes_endpoint_port_name] action: keep regex: default;kubernetes;https # Scrape config for nodes (kubelet). # # Rather than connecting directly to the node, the scrape is proxied thoug...
scrape_configs: job_name: kube-state-metrics # 必选,Job 的名称 scrape_interval: 30s # 可选,该 Job 的采集时间间隔,优先级高于全局配置 scrape_timeout: 30s # 可选,该 Job 的采集超时时间,优先级高于全局配置 metrics_path: /metrics # 必选,采集指标的 URI 路径,默认为 /metrics honor_labels: ...