当使用metric_relabel_configs(抓取数据之后的,也就是说要存储了,只会去存储这样的指标,relabel_configs是抓取之前)来控制目标的抓取方式时,我们可以使用下面的规则来只存储指标名称以api_或http_开头的指标。 action:keep source_labels:[__name__]regex:"(api_|http_).*" 1. 2. 3. 只抓取特定目标的Service...
relabel_configs:在采集之前(比如在采集数据之前重新定义元标签),可以使用relabel_configs添加一些标签、也可以只采集特定目标或过滤目标 metric_relabel_configs:如果是已经抓取到指标数据时,可以使用metric_relabel_configs做最后的重新标记和过滤 二、relabel_configs配置 source_labels:源标签,没有经过relabel处理之前的标签...
1.1 relabel的action类型 replace: 对标签和标签值进行替换。 keep: 满足特定条件的实例进行采集,其他的不采集。 drop: 满足特定条件的实例不采集,其他的采集。 hashmod: 这个我也没看懂啥意思,囧。 labelmap: 这个我也没看懂啥意思,囧。 labeldrop: 对抓取的实例特定标签进行删除。 labelkeep: 对抓取的实例特定...
scrape_configs:-…-job_name:"cephs"relabel_configs:-action:keepsource_labels:-__address__regex:ceph01.* relabel结果可以在Prometheus网页的status/ Service Discovery中查看 3.2使用drop 丢弃标签值regex到的targets scrape_configs:-…-job_name:"cephs"relabel_configs:-action:dropsource_labels:-__address_...
relabel_configs 作用: 1)在target的标签集被抓取之前重写这些标签集; 2)过滤target是否应该被抓取,比如:如果配置了action为keep的规则,如果target的标签集满足该规则,则对该target进行抓取,否则不对该target进行指标的抓取 介绍 1)每个采集配置可以配置多个重写标签,并按照配置的顺序应用于每个target的标签集;重写标签...
relabel_configs: - source_labels: [__meta_kubernetes_service_annotation_prometheus_io_scrape] separator: ; regex: "true" replacement: $1 action: keep - source_labels: [__meta_kubernetes_service_annotation_prometheus_io_scheme] separator: ; ...
relabel_configs 允许在采集之前对任何目标及其标签进行修改 重新标签的意义: 重命名标签名称 删除标签 过滤目标 action有哪些动作? replace:默认,通过regex匹配source_label的值,使用replacement来引用表达式的值 keep:删除regex与连接不匹配的目标source_label; ...
relabel_configs: - source_labels: [__meta_kubernetes_namespace] separator: ; regex: 'test1' target_label: namespace action: keep - source_labels: [__address__] regex: '(.*):9090' target_label: __address__ action: keep - action: labelmap ...
Prometheus允许用户在采集任务设置中通过relabel_configs来添加自定义的Relabeling过程。 使用replace/labelmap重写标签 Relabeling最基本的应用场景就是基于Target实例中包含的metadata标签,动态的添加或者覆盖标签。例如,通过Consul动态发现的服务实例还会包含以下Metadata标签信息: ...
relabel_configs: - source_labels: ["__meta_consul_dc"] regex: "dc1" action: keep 二、Prometheus高可用 现在每个Prometheus都有各自的数据了,那么怎么把他们关联起来,建立一个全局的视图呢?官方提供了一个做法:联邦集群(federation),即把Prometheuse Server按照树状结构进行分层,根节点方向的Prometheus将查询叶子...