运行时指标

Docker stats

您可以使用 docker stats 命令实时流式传输容器的运行时指标。该命令支持 CPU、内存使用量、内存限制和网络 I/O 指标。

以下是 docker stats 命令的示例输出

$ docker stats redis1 redis2

CONTAINER           CPU %               MEM USAGE / LIMIT     MEM %               NET I/O             BLOCK I/O
redis1              0.07%               796 KB / 64 MB        1.21%               788 B / 648 B       3.568 MB / 512 KB
redis2              0.07%               2.746 MB / 64 MB      4.29%               1.266 KB / 648 B    12.4 MB / 0 B

docker stats 参考页面提供了有关 docker stats 命令的更多详细信息。

控制组

Linux 容器依赖于 控制组,它们不仅可以跟踪进程组,还可以暴露有关 CPU、内存和块 I/O 使用情况的指标。您也可以访问这些指标并获取网络使用量指标。这适用于“纯”LXC 容器以及 Docker 容器。

控制组通过伪文件系统暴露。在现代发行版中,您应该在 /sys/fs/cgroup 下找到此文件系统。在该目录下,您会看到多个子目录,称为 devicesfreezerblkio 等等。每个子目录实际上对应于一个不同的 cgroup 层次结构。

在较旧的系统上,控制组可能挂载在 /cgroup 上,没有不同的层次结构。在这种情况下,您不会看到子目录,而是在该目录中看到一堆文件,可能还有一些对应于现有容器的目录。

要确定您的控制组挂载在哪里,您可以运行

$ grep cgroup /proc/mounts

枚举 cgroups

cgroups 的文件布局在 v1 和 v2 之间差异很大。

如果您的系统上存在 /sys/fs/cgroup/cgroup.controllers,则您正在使用 v2,否则您正在使用 v1。请参阅与您的 cgroup 版本对应的子部分。

cgroup v2 在以下发行版中默认使用

  • Fedora(自 31 版起)
  • Debian GNU/Linux(自 11 版起)
  • Ubuntu(自 21.10 版起)

cgroup v1

您可以查看 /proc/cgroups 以查看系统已知的不同控制组子系统、它们所属的层次结构以及它们包含的组数。

您还可以查看 /proc/<pid>/cgroup 以查看进程属于哪个控制组。控制组显示为相对于层次结构挂载点根目录的路径。/ 表示进程尚未分配到组,而 /lxc/pumpkin 表示该进程是名为 pumpkin 的容器的成员。

cgroup v2

在 cgroup v2 主机上,/proc/cgroups 的内容没有意义。请查看 /sys/fs/cgroup/cgroup.controllers 以了解可用的控制器。

更改 cgroup 版本

更改 cgroup 版本需要重新启动整个系统。

在基于 systemd 的系统上,可以通过向内核命令行添加 systemd.unified_cgroup_hierarchy=1 来启用 cgroup v2。要将 cgroup 版本恢复到 v1,您需要改为设置 systemd.unified_cgroup_hierarchy=0

如果您的系统上可用 grubby 命令(例如在 Fedora 上),可以通过以下方式修改命令行

$ sudo grubby --update-kernel=ALL --args="systemd.unified_cgroup_hierarchy=1"

如果 grubby 命令不可用,请编辑 /etc/default/grub 中的 GRUB_CMDLINE_LINUX 行并运行 sudo update-grub

在 cgroup v2 上运行 Docker

Docker 自 Docker 20.10 起支持 cgroup v2。在 cgroup v2 上运行 Docker 还需要满足以下条件

  • containerd: v1.4 或更高版本
  • runc: v1.0.0-rc91 或更高版本
  • 内核: v4.15 或更高版本(推荐 v5.2 或更高版本)

请注意,cgroup v2 模式与 cgroup v1 模式略有不同

  • 默认 cgroup 驱动程序(dockerd --exec-opt native.cgroupdriver)在 v2 上是 systemd,在 v1 上是 cgroupfs
  • 默认 cgroup 命名空间模式(docker run --cgroupns)在 v2 上是 private,在 v1 上是 host
  • 在 v2 上,docker run 标志 --oom-kill-disable--kernel-memory 将被忽略。

查找给定容器的 cgroup

对于每个容器,在每个层次结构中都会创建一个 cgroup。在安装了较旧版本 LXC 用户空间工具的系统上,cgroup 的名称就是容器的名称。使用较新版本的 LXC 工具时,cgroup 的名称是 lxc/<container_name>

对于使用 cgroups 的 Docker 容器,cgroup 名称是容器的完整 ID 或长 ID。如果在 docker ps 中容器显示为 ae836c95b4c3,其长 ID 可能类似于 ae836c95b4c3c9e9179e0e91015512da89fdec91612f63cebae57df9a5444c79。您可以使用 docker inspectdocker ps --no-trunc 查找它。

将所有信息结合起来查看 Docker 容器的内存指标,请查看以下路径

  • 在 cgroup v1, cgroupfs 驱动程序上:/sys/fs/cgroup/memory/docker/<longid>/
  • 在 cgroup v1, systemd 驱动程序上:/sys/fs/cgroup/memory/system.slice/docker-<longid>.scope/
  • 在 cgroup v2, cgroupfs 驱动程序上:/sys/fs/cgroup/docker/<longid>/
  • 在 cgroup v2, systemd 驱动程序上:/sys/fs/cgroup/system.slice/docker-<longid>.scope/

来自 cgroups 的指标:内存、CPU、块 I/O

注意

本节尚未更新 cgroup v2 的信息。有关 cgroup v2 的更多信息,请参阅 内核文档

对于每个子系统(内存、CPU 和块 I/O),存在一个或多个伪文件,其中包含统计信息。

内存指标:memory.stat

内存指标位于 memory cgroup 中。内存控制组会增加少量开销,因为它会对主机上的内存使用情况进行非常精细的核算。因此,许多发行版默认不启用它。通常,要启用它,您只需添加一些内核命令行参数:cgroup_enable=memory swapaccount=1

指标位于伪文件 memory.stat 中。它看起来像这样

cache 11492564992
rss 1930993664
mapped_file 306728960
pgpgin 406632648
pgpgout 403355412
swap 0
pgfault 728281223
pgmajfault 1724
inactive_anon 46608384
active_anon 1884520448
inactive_file 7003344896
active_file 4489052160
unevictable 32768
hierarchical_memory_limit 9223372036854775807
hierarchical_memsw_limit 9223372036854775807
total_cache 11492564992
total_rss 1930993664
total_mapped_file 306728960
total_pgpgin 406632648
total_pgpgout 403355412
total_swap 0
total_pgfault 728281223
total_pgmajfault 1724
total_inactive_anon 46608384
total_active_anon 1884520448
total_inactive_file 7003344896
total_active_file 4489052160
total_unevictable 32768

前半部分(不带 total_ 前缀)包含与 cgroup 中进程相关的统计信息,不包括子 cgroup。后半部分(带 total_ 前缀)也包括子 cgroup。

一些指标是“仪表”,即可以增加或减少的值。例如,swap 是 cgroup 成员使用的交换空间量。另一些是“计数器”,即只能增加的值,因为它们代表特定事件的发生次数。例如,pgfault 表示自创建 cgroup 以来发生的页面错误数。

缓存
此控制组进程使用的内存量,可以精确地与块设备上的块关联。当您从磁盘读取和写入文件时,此数量会增加。如果您使用“传统”I/O(openreadwrite 系统调用)以及映射文件(使用 mmap),情况也是如此。它还包括 tmpfs 挂载使用的内存,尽管原因尚不清楚。
rss
不对应磁盘上任何内容的内存量:栈、堆和匿名内存映射。
mapped_file
表示控制组中进程映射的内存量。它不提供有关使用了多少内存的信息;而是告诉您内存是如何使用的。
pgfault, pgmajfault
分别表示 cgroup 进程触发“页面错误”和“主要错误”的次数。页面错误发生在进程访问其虚拟内存空间中不存在或受保护的部分时。前者可能发生在进程有 bug 并试图访问无效地址时(它会收到一个 SIGSEGV 信号,通常会以著名的 Segmentation fault 消息终止进程)。后者可能发生在进程从已换出或对应于映射文件的内存区域读取时:在这种情况下,内核从磁盘加载页面,并让 CPU 完成内存访问。当进程写入写时复制内存区域时也可能发生这种情况:同样,内核会中断进程,复制内存页,并在进程自己的页面副本上恢复写入操作。“主要”错误发生在内核实际需要从磁盘读取数据时。当它只是复制现有页面或分配空页面时,这是一个常规(或“次要”)错误。
swap
此 cgroup 中进程当前使用的交换空间量。
active_anon, inactive_anon
被内核分别标识为活动 (active)非活动 (inactive) 的匿名内存量。“匿名”内存是链接到磁盘页面的内存。换句话说,这相当于上面描述的 rss 计数器。事实上,rss 计数器的确切定义是 active_anon + inactive_anon - tmpfs(其中 tmpfs 是此控制组挂载的 tmpfs 文件系统使用的内存量)。那么,“活动”和“非活动”之间有什么区别呢?页面最初是“活动”的;内核会定期扫描内存,并将一些页面标记为“非活动”。每当再次访问这些页面时,它们会立即重新标记为“活动”。当内核内存几乎耗尽,并且需要换出到磁盘时,内核会换出“非活动”页面。
active_file, inactive_file
缓存内存,其活动非活动类似于上面的匿名内存。确切的公式是 cache = active_file + inactive_file + tmpfs。内核用于在活动和非活动集合之间移动内存页面的确切规则与用于匿名内存的规则不同,但基本原理相同。当内核需要回收内存时,从该池中回收一个干净(=未修改)的页面成本更低,因为它可以立即回收(而匿名页面和脏/修改过的页面需要先写入磁盘)。
unevictable
无法回收的内存量;通常,它计算通过 mlock“锁定”的内存。加密框架经常使用它来确保密钥和其他敏感材料永远不会被换出到磁盘。
memory_limit, memsw_limit
这些并非真正的指标,而是对此 cgroup 应用的限制的提醒。第一个表示此控制组进程可使用的最大物理内存量;第二个表示最大 RAM+swap 量。

在页面缓存中计算内存非常复杂。如果两个不同控制组中的进程都读取同一个文件(最终依赖于磁盘上的相同块),则相应的内存费用会在控制组之间分摊。这很好,但这这也意味着当一个 cgroup 终止时,可能会增加另一个 cgroup 的内存使用量,因为它们不再分摊这些内存页面的成本了。

CPU 指标:cpuacct.stat

既然我们已经介绍了内存指标,相比之下,其他一切都很简单。CPU 指标位于 cpuacct 控制器中。

对于每个容器,伪文件 cpuacct.stat 包含容器进程累积的 CPU 使用量,细分为 user 时间和 system 时间。区别在于

  • user 时间是进程直接控制 CPU 执行进程代码的时间。
  • system 时间是内核代表进程执行系统调用的时间。

这些时间以 1/100 秒为单位表示,也称为“user jiffies”。每秒有 USER_HZ“jiffies”,在 x86 系统上,USER_HZ 是 100。历史上,这恰好映射到每秒调度器“tick”的数量,但高频率调度和无 tick 内核已使 tick 的数量变得无关紧要。

块 I/O 指标

块 I/O 在 blkio 控制器中进行核算。不同的指标分散在不同的文件中。虽然您可以在内核文档中的 blkio-controller 文件中找到深入的详细信息,但此处列出了最相关的一些指标

blkio.sectors
包含 cgroup 成员进程按设备读取和写入的 512 字节扇区数。读取和写入合并到一个计数器中。
blkio.io_service_bytes
表示 cgroup 读取和写入的字节数。每个设备有 4 个计数器,因为对于每个设备,它区分同步与异步 I/O,以及读取与写入。
blkio.io_serviced
执行的 I/O 操作数,无论其大小如何。每个设备也有 4 个计数器。
blkio.io_queued
表示当前为此 cgroup 排队的 I/O 操作数量。换句话说,如果该 cgroup 没有进行任何 I/O 操作,则此值为零。反之则不成立。也就是说,如果没有 I/O 排队,并不意味着该 cgroup 处于空闲状态(就 I/O 而言)。它可能正在对一个原本处于静止状态的设备进行纯同步读取,因此设备可以立即处理这些操作,无需排队。此外,虽然这有助于找出哪个 cgroup 对 I/O 子系统造成压力,但请记住这是一个相对量。即使一个进程组没有执行更多的 I/O 操作,其队列大小也可能仅仅因为其他设备增加了设备负载而增加。

网络指标

网络指标不是由控制组直接公开的。这有一个很好的解释:网络接口存在于 网络命名空间 的上下文中。内核或许可以累积一组进程发送和接收的包和字节的指标,但这些指标不会非常有用。您需要的是每个接口的指标(因为在本地 lo 接口上发生的流量实际上并不计算在内)。但是,由于单个 cgroup 中的进程可以属于多个网络命名空间,这些指标将更难解释:多个网络命名空间意味着多个 lo 接口,可能还有多个 eth0 接口等;因此,这就是为什么无法通过控制组轻松收集网络指标的原因。

您可以从其他来源收集网络指标。

iptables

iptables(或者更确切地说,iptables 只是其接口的 netfilter 框架)可以进行一些严肃的统计。

例如,您可以设置一个规则来统计 Web 服务器的出站 HTTP 流量

$ iptables -I OUTPUT -p tcp --sport 80

没有 -j-g 标志,因此该规则只计算匹配的包并转到下一条规则。

稍后,您可以使用以下命令检查计数器的值:

$ iptables -nxvL OUTPUT

严格来说,-n 不是必需的,但它可以阻止 iptables 执行 DNS 反向查找,这在这种情况下可能没有用。

计数器包括包数和字节数。如果您想这样为容器流量设置指标,您可以在 FORWARD 链中,为每个容器 IP 地址执行一个 for 循环,添加两条 iptables 规则(每个方向一条)。这只统计通过 NAT 层的流量;您还需要添加通过用户空间代理的流量。

然后,您需要定期检查这些计数器。如果您恰好使用 collectd,有一个不错的插件可以自动化 iptables 计数器的收集。

接口级计数器

由于每个容器都有一个虚拟以太网接口,您可能希望直接检查此接口的 TX 和 RX 计数器。每个容器都与主机中的一个虚拟以太网接口相关联,名称类似 vethKk8Zqi。遗憾的是,确定哪个接口对应哪个容器是很困难的。

但目前,最好的方法是从容器内部检查指标。为此,您可以使用 ip-netns magic 在容器的网络命名空间内运行主机环境中的可执行文件。

ip-netns exec 命令允许您在当前进程可见的任何网络命名空间内执行任何程序(主机系统中的程序)。这意味着您的主机可以进入您的容器的网络命名空间,但您的容器无法访问主机或其他对等容器。不过,容器可以与其子容器交互。

命令的确切格式是

$ ip netns exec <nsname> <command...>

例如

$ ip netns exec mycontainer netstat -i

ip netns 通过使用命名空间伪文件来查找 mycontainer 容器。每个进程属于一个网络命名空间、一个 PID 命名空间、一个 mnt 命名空间等,这些命名空间都在 /proc/<pid>/ns/ 下具化。例如,PID 42 的网络命名空间由伪文件 /proc/42/ns/net 具化。

当您运行 ip netns exec mycontainer ... 时,它期望 /var/run/netns/mycontainer 是这些伪文件之一。(接受符号链接。)

换句话说,要在容器的网络命名空间内执行命令,我们需要

  • 找出您想调查的容器内任何进程的 PID;
  • /var/run/netns/<somename> 创建一个指向 /proc/<thepid>/ns/net 的符号链接
  • 执行 ip netns exec <somename> ....

请参阅枚举 Cgroup,了解如何找到您想测量网络使用的容器内进程的 cgroup。从中,您可以检查名为 tasks 的伪文件,该文件包含 cgroup 中的所有 PID(因此,也包含容器中的 PID)。选择其中任何一个 PID。

综合起来,如果容器的“短 ID”保存在环境变量 $CID 中,那么您可以这样做

$ TASKS=/sys/fs/cgroup/devices/docker/$CID*/tasks
$ PID=$(head -n 1 $TASKS)
$ mkdir -p /var/run/netns
$ ln -sf /proc/$PID/ns/net /var/run/netns/$CID
$ ip netns exec $CID netstat -i

高性能指标收集技巧

每次需要更新指标时都运行一个新进程是(相对而言)昂贵的。如果您想以高分辨率收集指标,和/或针对大量容器(例如单个主机上的 1000 个容器),您不会希望每次都派生一个新进程。

以下是如何从单个进程收集指标。您需要用 C(或任何允许您进行低级系统调用的语言)编写指标收集器。您需要使用一个特殊的系统调用 setns(),它允许当前进程进入任何任意命名空间。但是,它需要一个指向命名空间伪文件(记住:即 /proc/<pid>/ns/net 中的伪文件)的打开文件描述符。

但是,这里有一个问题:您不能一直保持这个文件描述符打开。如果这样做,当控制组中的最后一个进程退出时,命名空间不会被销毁,其网络资源(如容器的虚拟接口)将永远存在(直到您关闭该文件描述符)。

正确的方法是跟踪每个容器的第一个 PID,并在每次需要时重新打开命名空间伪文件。

容器退出时收集指标

有时,您不关心实时指标收集,但当容器退出时,您想知道它使用了多少 CPU、内存等。

Docker 让这变得困难,因为它依赖于 lxc-start,后者会仔细清理自己。通常更容易定期收集指标,这就是 collectd LXC 插件的工作方式。

但是,如果您仍然想在容器停止时收集统计信息,方法如下:

对于每个容器,启动一个收集进程,并通过将其 PID 写入 cgroup 的 tasks 文件来将其移动到您想要监控的控制组。收集进程应定期重新读取 tasks 文件以检查它是否是控制组中的最后一个进程。(如果您还想收集上一节中解释的网络统计信息,您也应该将该进程移动到相应的网络命名空间。)

当容器退出时,lxc-start 尝试删除控制组。它会失败,因为控制组仍在被使用;但这没关系。您的进程现在应该检测到它是组中唯一剩下的进程。现在是收集所有所需指标的正确时机!

最后,您的进程应该将自己移回根控制组,并删除容器控制组。要删除一个控制组,只需 rmdir 其目录。rmdir 一个仍然包含文件的目录是反直觉的;但请记住这是一个伪文件系统,因此通常的规则不适用。清理完成后,收集进程可以安全退出。

页面选项