Node Exporter
本页内容
简介
以下快速入门指南提供了 Node Exporter 的设置说明以及预配置的仪表盘、告警规则和录制规则。完成本快速入门指南中的步骤后,您将拥有
设置并配置 Node Exporter 以收集 CPU 负载和磁盘 I/O 等 Linux 系统指标。Node Exporter 将将其公开为 Prometheus 样式的指标。
配置 Prometheus 以抓取 Node Exporter 指标,并将其可选地发送到 Grafana Cloud。
设置一组预配置和精选的录制规则以缓存频繁的查询。
导入 Grafana 仪表盘以可视化您的指标数据。
设置 Prometheus 告警规则以根据您的指标数据发出告警。
指标用法
默认情况下,此导出器发布大约 500 个 Prometheus 时间序列。要查看此导出器默认提供的指标列表,请在此处下载示例指标抓取 此处。
请注意,根据其配置,Node Exporter 收集和发布的指标可能远远超过此默认集。要了解有关配置 Node Exporter 和切换其收集器的更多信息,请参阅 Node Exporter 的 GitHub 存储库。
除了切换 Node Exporter 的设置外,您还可以通过删除不需要存储在 Prometheus 或 Grafana Cloud 中的时间序列来减少指标使用量。要了解如何执行此操作,请参阅 Grafana Cloud 文档中的 使用重新标记减少 Prometheus 指标的使用量。
Grafana Cloud 的 Linux 节点集成
如果您使用的是 Grafana Cloud,则可以通过安装 Linux 服务器集成来跳过本指南中的所有步骤,该集成旨在帮助您通过几个命令和点击即可启动和运行。 免费注册。
要了解如何使用 Linux 服务器集成设置 Node Exporter,请参阅 Grafana Cloud 文档中的 使用 Linux 主机集成监控 Linux 主机。
本页内容
Node Exporter 快速入门
在本指南中,您将学习如何设置和配置 Node Exporter 以收集 CPU 负载和磁盘 I/O 等 Linux 系统指标,并将它们公开为 Prometheus 样式的指标。然后,您将配置 Prometheus 以抓取 Node Exporter 指标,并将其可选地发送到 Grafana Cloud。最后,您将设置一组预配置和精选的 录制规则、Grafana 仪表盘 和 告警规则。在本指南结束时,您将拥有可用于可视化 Linux 系统指标的仪表盘,以及一组预配置的告警。
如果您使用的是 Grafana Cloud,则 Linux 服务器集成可以帮助您快速启动和运行。Linux 集成将 Node Exporter 嵌入到 Grafana Agent 中,并自动预配告警规则和仪表盘,因此您无需执行本指南中的步骤。要了解如何使用 Linux 服务器集成设置 Node Exporter,请参阅 Grafana Cloud 文档中的 使用 Linux 主机集成监控 Linux 主机。
先决条件
在开始之前,您应该具备以下条件
- 与 Node Exporter 版本兼容的 Linux 机器。要查看可用版本的列表,请参阅 版本。
- 在您的环境或 Linux 机器上直接运行 Prometheus。要了解如何安装 Prometheus,请参阅 Prometheus 文档中的 安装。
- 在您的环境或 Linux 机器上直接运行 Grafana。要了解如何安装 Grafana,请参阅 Grafana 文档中的 安装 Grafana。
- (可选) Grafana Cloud 帐户。Grafana Cloud 托管 Grafana 和基于 Mimir 的 Prometheus 指标端点。您仍然需要使用安装在您的环境中的 Prometheus 或 Grafana Agent 抓取指标。要了解有关 Grafana Cloud 的更多信息,请参阅 Grafana Cloud。
步骤 1:设置 Node Exporter
在此步骤中,您将在 Linux 机器上设置 Node Exporter 以收集和公开系统指标。
首先,登录到您的机器并下载相关的 Node Exporter 二进制文件。在本指南中,我们将使用 linux-amd64
,但您应该选择与您的系统操作系统和架构相对应的文件
wget https://github.com/prometheus/node_exporter/releases/download/v1.1.1/node_exporter-1.1.1.linux-amd64.tar.gz
将1.1.1
替换为您想要安装的版本。本指南可能会过时,因此最好查看 Node Exporter 的发行版页面以获取最新稳定版本。
解压 tarball 并 cd
到目录中
tar xvfz node_exporter-*.*-amd64.tar.gz
cd node_exporter-*.*-amd64
运行 Node Exporter 二进制文件
./node_exporter
level=info ts=2021-02-15T03:35:18.396Z caller=node_exporter.go:178 msg="Starting node_exporter" version="(version=1.1.1, branch=HEAD, revision=4e837d4da79cc59ee3ed1471ba9a0d9547e95540)"
level=info ts=2021-02-15T03:35:18.396Z caller=node_exporter.go:179 msg="Build context" build_context="(go=go1.15.8, user=root@7abcc101f1c2, date=20210213-13:30:54)"
level=warn ts=2021-02-15T03:35:18.396Z caller=node_exporter.go:181 msg="Node Exporter is running as root user. This exporter is designed to run as unpriviledged user, root is not required."
level=info ts=2021-02-15T03:35:18.397Z caller=filesystem_common.go:74 collector=filesystem msg="Parsed flag --collector.filesystem.ignored-mount-points" flag=^/(dev|proc|sys|var/lib/docker/.+)($|/)
level=info ts=2021-02-15T03:35:18.397Z caller=filesystem_common.go:76 collector=filesystem msg="Parsed flag --collector.filesystem.ignored-fs-types" flag=^(autofs|binfmt_misc|bpf|cgroup2?|configfs|debugfs|devpts|devtmpfs|fusectl|hugetlbfs|iso9660|mqueue|nsfs|overlay|proc|procfs|pstore|rpc_pipefs|securityfs|selinuxfs|squashfs|sysfs|tracefs)$
level=info ts=2021-02-15T03:35:18.397Z caller=node_exporter.go:106 msg="Enabled collectors"
level=info ts=2021-02-15T03:35:18.397Z caller=node_exporter.go:113 collector=arp
level=info ts=2021-02-15T03:35:18.397Z caller=node_exporter.go:113 collector=bcache
. . .
level=info ts=2021-02-15T03:38:01.468Z caller=node_exporter.go:113 collector=zfs
level=info ts=2021-02-15T03:38:01.468Z caller=node_exporter.go:195 msg="Listening on" address=:9100
level=info ts=2021-02-15T03:38:01.468Z caller=tls_config.go:191 msg="TLS is disabled." http2=false
如果您看到以上输出,则表示您已成功运行 Node Exporter。
Node Exporter 在端口9100
上以 Prometheus 格式发布您的系统指标。您可以使用curl
测试此功能。您需要打开一个新的 SSH 会话或将 Node Exporter 进程后台运行才能使用curl
。
curl https://127.0.0.1:9100/metrics
. . .
process_virtual_memory_max_bytes 1.8446744073709552e+19
## HELP promhttp_metric_handler_errors_total Total number of internal errors encountered by the promhttp metric handler.
## TYPE promhttp_metric_handler_errors_total counter
promhttp_metric_handler_errors_total{cause="encoding"} 0
promhttp_metric_handler_errors_total{cause="gathering"} 0
## HELP promhttp_metric_handler_requests_in_flight Current number of scrapes being served.
## TYPE promhttp_metric_handler_requests_in_flight gauge
promhttp_metric_handler_requests_in_flight 1
## HELP promhttp_metric_handler_requests_total Total number of scrapes by HTTP status code.
## TYPE promhttp_metric_handler_requests_total counter
promhttp_metric_handler_requests_total{code="200"} 0
promhttp_metric_handler_requests_total{code="500"} 0
promhttp_metric_handler_requests_total{code="503"} 0
如果您看到以上输出,则表示您已准备好使用 Prometheus 开始抓取 Node Exporter 指标。
为了避免从命令行运行和管理 Node Exporter,您可以创建一个systemd
服务。要了解如何执行此操作,请参阅创建 systemd 服务以管理代理。将代理二进制文件的路径替换为 Node Exporter 的路径。
步骤 2:使用 Prometheus 抓取 Node Exporter
现在 Node Exporter 已在您的机器上启动并运行,您可以配置 Prometheus 抓取作业来收集和存储 Node Exporter 指标。
将以下抓取作业配置添加到 prometheus.yml
配置文件的 scrape_configs
部分
- job_name: node
static_configs:
- targets: ['linux_machine_IP_address:9100']
将linux_machine_IP_address
替换为运行 Node Exporter 的机器的 IP 地址。如果您在同一台机器上运行 Prometheus,则为localhost
。要了解有关配置 Prometheus 的更多信息,请参阅 Prometheus 文档中的配置。
如果您没有prometheus.yml
配置文件,请使用您喜欢的文本编辑器创建一个简单的配置文件。打开您喜欢的文本编辑器并将以下 Prometheus 配置粘贴到其中
global:
scrape_interval: 15s
scrape_configs:
- job_name: node
static_configs:
- targets: ['linux_machine_IP_address:9100']
此配置告诉 Prometheus 每 15 秒抓取所有作业。唯一配置的抓取作业称为node
,并定义了一个linux_machine_IP_address:9100
目标。默认情况下,Prometheus 将使用 HTTP 抓取/metrics
端点。
保存并关闭文件。然后,您可以使用以下命令使用该文件运行 Prometheus
./prometheus --config.file=./prometheus.yml
将指标发送到 Grafana Cloud
要将 Node Exporter 指标从 Prometheus 发送到 Grafana Cloud,请在 prometheus.yml
配置文件中配置remote_write
参数。要了解更多信息,请参阅 Grafana Cloud 文档中的指标 - Prometheus。要了解有关remote_write
参数的更多信息,请参阅 Prometheus 文档中的remote_write
。
步骤 3:配置录制规则
使用录制规则,您可以预先计算并缓存频繁查询的指标。例如,如果仪表板面板使用计算密集型查询(如rate()
),则可以创建一个录制规则,该规则以定期减少的间隔运行,并将密集型查询的结果保存到新的时间序列中。这样可以避免在每次刷新仪表板时都获取和计算数据。要了解有关 Prometheus 录制规则的更多信息,请参阅 Prometheus 文档中的录制规则。
您应该在加载本指南中的仪表板之前加载以下录制规则。仪表板查询使用录制规则来减少 Prometheus 或 Grafana Cloud 指标服务器上的负载,具体取决于您在何处评估规则。
您可以此处获取录制规则 YAML 文件。
将录制规则加载到 Prometheus 中
要将录制规则加载到 Prometheus 中,请将以下内容添加到您的 prometheus.yml
配置文件中
rule_files:
- "node_exporter_recording_rules.yml"
请务必将node_exporter_recording_rules.yml
替换为您 Node Exporter 录制规则 YAML 文件的路径。
将录制规则加载到 Grafana Cloud 中
要了解如何将录制规则加载到 Grafana Cloud 中,请参阅使用 cortextool 的 Prometheus 和 Loki 规则。
步骤 4:配置仪表盘
此快速入门包含以下三个仪表板
- 节点仪表板
- USE 方法/节点仪表板
- USE 方法/集群仪表板
要了解如何将这些仪表板导入 Grafana,请参阅 Grafana 文档中的导入仪表板。
仪表板查询依赖于上一步中定义的录制规则。请务必先导入这些规则,然后再导入仪表板。
您可以此处获取仪表板。
步骤 5:配置告警
使用 Prometheus 警报规则,您可以定义在 PromQL 表达式超出某个阈值或在一段时间内满足指定条件时触发的警报。例如,您可以定义一个HighRequestLatency
警报,当请求延迟指标在一段时间内大于某个阈值时触发。一旦警报条件触发,警报就会进入Pending
状态。在满足条件一段时间(由for
参数定义)后,警报将进入Firing
状态。您可以使用像Alertmanager这样的工具来配置触发警报的路由和通知。Alertmanager 也内置在 Grafana Cloud 中。
您可以此处获取警报规则 YAML 文件。
将警报规则加载到 Prometheus 中
要将警报规则加载到 Prometheus 中,请将以下内容添加到您的 prometheus.yml
配置文件中
rule_files:
- "node_exporter_alerting_rules.yml"
请务必将node_exporter_alerting_rules.yml
替换为您 Node Exporter 警报规则 YAML 文件的路径。
将警报规则加载到 Grafana Cloud 中
要了解如何将警报规则加载到 Grafana Cloud 中,请参阅使用 cortextool 的 Prometheus 和 Loki 规则。
结论
在此快速入门中,您在 Linux 机器上安装并运行了 Node Exporter。然后,您配置了 Prometheus 以抓取 Node Exporter 公开的系统指标。您将录制规则和警报规则加载到 Prometheus 中,最后导入 Grafana 仪表板以可视化您的 Linux 系统指标。
如果您使用的是 Grafana Cloud,则可以通过使用 Grafana Agent 安装 Linux 服务器集成来跳过本指南中的所有步骤。此集成将预配置的 Node Exporter 嵌入到代理中,并自动配置 Grafana 仪表板以及 Prometheus 警报和录制规则,因此您无需手动导入它们。要了解如何设置 Linux 服务器集成,请参阅使用 Linux 主机集成监控 Linux 主机。
仪表板、录制规则和警报规则是使用 Node Exporter Mixin 生成的。Mixin 是由主题专家策划和设计的仪表板、录制规则和警报的可重用模板。要了解更多信息,请参阅Node Mixin存储库。
本页内容
您应该在加载本指南中的仪表板之前加载以下录制规则。仪表板查询使用录制规则来减少 Prometheus 或 Grafana Cloud 指标服务器上的负载,具体取决于您在何处评估规则。
此快速入门包含以下录制规则
instance:node_num_cpu:sum
instance:node_cpu_utilisation:rate1m
instance:node_load1_per_cpu:ratio
instance:node_memory_utilisation:ratio
instance:node_vmstat_pgmajfault:rate1m
instance_device:node_disk_io_time_seconds:rate1m
instance_device:node_disk_io_time_weighted_seconds:rate1m
instance:node_network_receive_bytes_excluding_lo:rate1m
instance:node_network_transmit_bytes_excluding_lo:rate1m
instance:node_network_receive_drop_excluding_lo:rate1m
instance:node_network_transmit_drop_excluding_lo:rate1m
"groups":
- "name": "node-exporter.rules"
"rules":
- "expr": |
count without (cpu) (
count without (mode) (
node_cpu_seconds_total{job="node"}
)
)
"record": "instance:node_num_cpu:sum"
- "expr": |
1 - avg without (cpu, mode) (
rate(node_cpu_seconds_total{job="node", mode="idle"}[1m])
)
"record": "instance:node_cpu_utilisation:rate1m"
- "expr": |
(
node_load1{job="node"}
/
instance:node_num_cpu:sum{job="node"}
)
"record": "instance:node_load1_per_cpu:ratio"
- "expr": |
1 - (
node_memory_MemAvailable_bytes{job="node"}
/
node_memory_MemTotal_bytes{job="node"}
)
"record": "instance:node_memory_utilisation:ratio"
- "expr": |
rate(node_vmstat_pgmajfault{job="node"}[1m])
"record": "instance:node_vmstat_pgmajfault:rate1m"
- "expr": |
rate(node_disk_io_time_seconds_total{job="node", device!=""}[1m])
"record": "instance_device:node_disk_io_time_seconds:rate1m"
- "expr": |
rate(node_disk_io_time_weighted_seconds_total{job="node", device!=""}[1m])
"record": "instance_device:node_disk_io_time_weighted_seconds:rate1m"
- "expr": |
sum without (device) (
rate(node_network_receive_bytes_total{job="node", device!="lo"}[1m])
)
"record": "instance:node_network_receive_bytes_excluding_lo:rate1m"
- "expr": |
sum without (device) (
rate(node_network_transmit_bytes_total{job="node", device!="lo"}[1m])
)
"record": "instance:node_network_transmit_bytes_excluding_lo:rate1m"
- "expr": |
sum without (device) (
rate(node_network_receive_drop_total{job="node", device!="lo"}[1m])
)
"record": "instance:node_network_receive_drop_excluding_lo:rate1m"
- "expr": |
sum without (device) (
rate(node_network_transmit_drop_total{job="node", device!="lo"}[1m])
)
"record": "instance:node_network_transmit_drop_excluding_lo:rate1m"
此录制规则 YAML 文件是使用 Node Exporter 的mixin生成的。它使用job=node
标签选择器默认查询指标。如果您需要使用不同的选择器,请修改config.libsonnet中的选择器,并按照 mixin 存储库中的说明重新生成仪表板。
本页内容
注意:这些仪表板依赖于上一个选项卡中的录制规则。请务必先导入这些规则,然后再导入仪表板。
节点仪表板
此仪表板包含以下指标的面板
- CPU 使用率
- 平均负载
- 内存使用率
- 磁盘 I/O
- 磁盘使用率
- 网络接收
- 网络发送
您可以使用以下仪表板 ID 直接导入仪表板:13978
您也可以此处直接下载仪表板 JSON。
USE 方法/节点仪表板
此仪表板包含以下指标的面板。要了解有关 USE(利用率、饱和度和错误)指标的更多信息,请参阅USE 方法
- CPU 利用率
- CPU 饱和度(每个 CPU 的负载)
- 内存利用率
- 内存饱和度(主要页面错误)
- 网络利用率(字节接收/发送)
- 网络饱和度(接收/发送丢弃)
- 磁盘 I/O 利用率
- 磁盘 I/O 饱和度
您可以使用以下仪表板 ID 直接导入仪表板:13977
您也可以此处直接下载仪表板 JSON。
USE 方法/集群仪表板
此仪表板类似于 USE 方法/节点仪表板,但提供了相同指标的集群级视图。它包含以下指标的面板
- CPU 利用率
- CPU 饱和度(每个 CPU 的负载)
- 内存利用率
- 内存饱和度(主要页面错误)
- 网络利用率(字节接收/发送)
- 网络饱和度(接收/发送丢弃)
- 磁盘 I/O 利用率
- 磁盘 I/O 饱和度
您可以使用以下仪表板 ID 直接导入仪表板:13971
您也可以此处直接下载仪表板 JSON。
这些仪表板是使用 Node Exporter 的mixin生成的。它们使用job=node
标签选择器默认查询指标。如果您需要使用不同的选择器,请修改config.libsonnet中的选择器,并按照 mixin 存储库中的说明重新生成仪表板。
本页内容
此快速入门包含以下警报规则
NodeFilesystemSpaceFillingUp
实例上的设备上的文件系统只剩下 X 个可用空间,并且正在填满。
NodeFilesystemAlmostOutOfSpace
实例上的设备上的文件系统只剩下 X 个可用空间。
NodeFilesystemFilesFillingUp
实例上的设备上的文件系统只剩下 X 个可用 inode,并且正在填满。
NodeFilesystemAlmostOutOfFiles
实例上的设备上的文件系统只剩下 X 个可用 inode
NodeNetworkReceiveErrs
实例接口设备在过去两分钟内遇到了 X 个接收错误。
NodeHighNumberConntrackEntriesUsed
conntrack 条目的使用百分比。
NodeTextFileCollectorScrapeError
Node Exporter 文本文件收集器无法抓取。
NodeClockSkewDetected
实例上的时钟与同步时间相差超过 300 秒。确保在此主机上正确配置了 NTP。
NodeClockNotSynchronising
实例上的时钟未同步。确保在此主机上配置了 NTP。
NodeRAIDDegraded
实例上的 RAID 阵列“device”由于一个或多个磁盘故障而处于降级状态。备用驱动器的数量不足以自动修复问题。
NodeRAIDDiskFailure
实例上的 RAID 阵列中至少有一个设备出现故障。阵列“device”需要关注,可能需要更换磁盘。
"groups":
- "name": "node-exporter"
"rules":
- "alert": "NodeFilesystemSpaceFillingUp"
"annotations":
"description": "Filesystem on {{ $labels.device }} at {{ $labels.instance }} has only {{ printf \"%.2f\" $value }}% available space left and is filling up."
"summary": "Filesystem is predicted to run out of space within the next 24 hours."
"expr": |
(
node_filesystem_avail_bytes{job="node",fstype!=""} / node_filesystem_size_bytes{job="node",fstype!=""} * 100 < 40
and
predict_linear(node_filesystem_avail_bytes{job="node",fstype!=""}[6h], 24*60*60) < 0
and
node_filesystem_readonly{job="node",fstype!=""} == 0
)
"for": "1h"
"labels":
"severity": "warning"
- "alert": "NodeFilesystemSpaceFillingUp"
"annotations":
"description": "Filesystem on {{ $labels.device }} at {{ $labels.instance }} has only {{ printf \"%.2f\" $value }}% available space left and is filling up fast."
"summary": "Filesystem is predicted to run out of space within the next 4 hours."
"expr": |
(
node_filesystem_avail_bytes{job="node",fstype!=""} / node_filesystem_size_bytes{job="node",fstype!=""} * 100 < 20
and
predict_linear(node_filesystem_avail_bytes{job="node",fstype!=""}[6h], 4*60*60) < 0
and
node_filesystem_readonly{job="node",fstype!=""} == 0
)
"for": "1h"
"labels":
"severity": "critical"
- "alert": "NodeFilesystemAlmostOutOfSpace"
"annotations":
"description": "Filesystem on {{ $labels.device }} at {{ $labels.instance }} has only {{ printf \"%.2f\" $value }}% available space left."
"summary": "Filesystem has less than 5% space left."
"expr": |
(
node_filesystem_avail_bytes{job="node",fstype!=""} / node_filesystem_size_bytes{job="node",fstype!=""} * 100 < 5
and
node_filesystem_readonly{job="node",fstype!=""} == 0
)
"for": "1h"
"labels":
"severity": "warning"
- "alert": "NodeFilesystemAlmostOutOfSpace"
"annotations":
"description": "Filesystem on {{ $labels.device }} at {{ $labels.instance }} has only {{ printf \"%.2f\" $value }}% available space left."
"summary": "Filesystem has less than 3% space left."
"expr": |
(
node_filesystem_avail_bytes{job="node",fstype!=""} / node_filesystem_size_bytes{job="node",fstype!=""} * 100 < 3
and
node_filesystem_readonly{job="node",fstype!=""} == 0
)
"for": "1h"
"labels":
"severity": "critical"
- "alert": "NodeFilesystemFilesFillingUp"
"annotations":
"description": "Filesystem on {{ $labels.device }} at {{ $labels.instance }} has only {{ printf \"%.2f\" $value }}% available inodes left and is filling up."
"summary": "Filesystem is predicted to run out of inodes within the next 24 hours."
"expr": |
(
node_filesystem_files_free{job="node",fstype!=""} / node_filesystem_files{job="node",fstype!=""} * 100 < 40
and
predict_linear(node_filesystem_files_free{job="node",fstype!=""}[6h], 24*60*60) < 0
and
node_filesystem_readonly{job="node",fstype!=""} == 0
)
"for": "1h"
"labels":
"severity": "warning"
- "alert": "NodeFilesystemFilesFillingUp"
"annotations":
"description": "Filesystem on {{ $labels.device }} at {{ $labels.instance }} has only {{ printf \"%.2f\" $value }}% available inodes left and is filling up fast."
"summary": "Filesystem is predicted to run out of inodes within the next 4 hours."
"expr": |
(
node_filesystem_files_free{job="node",fstype!=""} / node_filesystem_files{job="node",fstype!=""} * 100 < 20
and
predict_linear(node_filesystem_files_free{job="node",fstype!=""}[6h], 4*60*60) < 0
and
node_filesystem_readonly{job="node",fstype!=""} == 0
)
"for": "1h"
"labels":
"severity": "critical"
- "alert": "NodeFilesystemAlmostOutOfFiles"
"annotations":
"description": "Filesystem on {{ $labels.device }} at {{ $labels.instance }} has only {{ printf \"%.2f\" $value }}% available inodes left."
"summary": "Filesystem has less than 5% inodes left."
"expr": |
(
node_filesystem_files_free{job="node",fstype!=""} / node_filesystem_files{job="node",fstype!=""} * 100 < 5
and
node_filesystem_readonly{job="node",fstype!=""} == 0
)
"for": "1h"
"labels":
"severity": "warning"
- "alert": "NodeFilesystemAlmostOutOfFiles"
"annotations":
"description": "Filesystem on {{ $labels.device }} at {{ $labels.instance }} has only {{ printf \"%.2f\" $value }}% available inodes left."
"summary": "Filesystem has less than 3% inodes left."
"expr": |
(
node_filesystem_files_free{job="node",fstype!=""} / node_filesystem_files{job="node",fstype!=""} * 100 < 3
and
node_filesystem_readonly{job="node",fstype!=""} == 0
)
"for": "1h"
"labels":
"severity": "critical"
- "alert": "NodeNetworkReceiveErrs"
"annotations":
"description": "{{ $labels.instance }} interface {{ $labels.device }} has encountered {{ printf \"%.0f\" $value }} receive errors in the last two minutes."
"summary": "Network interface is reporting many receive errors."
"expr": |
rate(node_network_receive_errs_total[2m]) / rate(node_network_receive_packets_total[2m]) > 0.01
"for": "1h"
"labels":
"severity": "warning"
- "alert": "NodeNetworkTransmitErrs"
"annotations":
"description": "{{ $labels.instance }} interface {{ $labels.device }} has encountered {{ printf \"%.0f\" $value }} transmit errors in the last two minutes."
"summary": "Network interface is reporting many transmit errors."
"expr": |
rate(node_network_transmit_errs_total[2m]) / rate(node_network_transmit_packets_total[2m]) > 0.01
"for": "1h"
"labels":
"severity": "warning"
- "alert": "NodeHighNumberConntrackEntriesUsed"
"annotations":
"description": "{{ $value | humanizePercentage }} of conntrack entries are used."
"summary": "Number of conntrack are getting close to the limit."
"expr": |
(node_nf_conntrack_entries / node_nf_conntrack_entries_limit) > 0.75
"labels":
"severity": "warning"
- "alert": "NodeTextFileCollectorScrapeError"
"annotations":
"description": "Node Exporter text file collector failed to scrape."
"summary": "Node Exporter text file collector failed to scrape."
"expr": |
node_textfile_scrape_error{job="node"} == 1
"labels":
"severity": "warning"
- "alert": "NodeClockSkewDetected"
"annotations":
"description": "Clock on {{ $labels.instance }} is out of sync by more than 300s. Ensure NTP is configured correctly on this host."
"summary": "Clock skew detected."
"expr": |
(
node_timex_offset_seconds > 0.05
and
deriv(node_timex_offset_seconds[5m]) >= 0
)
or
(
node_timex_offset_seconds < -0.05
and
deriv(node_timex_offset_seconds[5m]) <= 0
)
"for": "10m"
"labels":
"severity": "warning"
- "alert": "NodeClockNotSynchronising"
"annotations":
"description": "Clock on {{ $labels.instance }} is not synchronising. Ensure NTP is configured on this host."
"summary": "Clock not synchronising."
"expr": |
min_over_time(node_timex_sync_status[5m]) == 0
and
node_timex_maxerror_seconds >= 16
"for": "10m"
"labels":
"severity": "warning"
- "alert": "NodeRAIDDegraded"
"annotations":
"description": "RAID array '{{ $labels.device }}' on {{ $labels.instance }} is in degraded state due to one or more disks failures. Number of spare drives is insufficient to fix issue automatically."
"summary": "RAID Array is degraded"
"expr": |
node_md_disks_required - ignoring (state) (node_md_disks{state="active"}) > 0
"for": "15m"
"labels":
"severity": "critical"
- "alert": "NodeRAIDDiskFailure"
"annotations":
"description": "At least one device in RAID array on {{ $labels.instance }} failed. Array '{{ $labels.device }}' needs attention and possibly a disk swap."
"summary": "Failed device in RAID array"
"expr": |
node_md_disks{state="failed"} > 0
"labels":
"severity": "warning"
此警报规则 YAML 文件是使用 Node-exporter 的mixin生成的。它使用job=node
标签选择器默认查询指标。如果您需要使用不同的选择器,请修改config.libsonnet中的选择器,并按照 mixin 存储库中的说明重新生成仪表板。
本页内容
Grafana Cloud 提供了不断扩展的集成套件,让您能够在几分钟内快速搭建可观测性栈。Linux 节点集成内置于 Grafana Agent 中,它会公开并抓取关键的系统指标,并将它们推送到 Grafana Cloud。Agent 将使用嵌入的 Node Exporter 抓取指标,Grafana Cloud 会自动配置定制的 Grafana 仪表盘和告警,以便您可视化和处理这些数据。
要了解更多信息,请查看 Grafana Cloud 文档。
工作原理
配置、安装、连接和维护 Prometheus 监控组件通常需要大量的专业知识。从设置到仪表盘和告警可能需要相当长的时间。作为 Grafana 的创建者——以及 Prometheus 和 Cortex 的核心贡献者——我们构建了简单的集成来抽象掉一些工作,以便您快速入门。工作原理
- 注册(或登录)免费的 Grafana Cloud 账户。
- 选择您想要观察的目标(不断扩展的目录)。
- 运行一行命令安装 Grafana Agent。Agent 会嵌入并预配置 Exporter 以公开默认指标,并将它们推送到 Grafana Cloud 指标后端。
- 瞧!您将看到定制的 Grafana 仪表盘,并受益于合理的告警默认设置。
正在寻找其他 Exporter 或集成?查看我们 不断增长的流行组件集成库,例如 MySQL、Postgres、Redis、Memcached 等。