ZFS 存储驱动
ZFS 是下一代文件系统,支持卷管理、快照、校验和、压缩和重复数据删除、复制等多种高级存储技术。
它由 Sun Microsystems(现为 Oracle Corporation)创建,并在 CDDL 许可下开源。由于 CDDL 和 GPL 之间的许可不兼容,ZFS 不能作为主线 Linux 内核的一部分发布。但是,Linux 上的 ZFS (ZoL) 项目提供了一个内核外模块和用户空间工具,可以单独安装。
Linux 上的 ZFS (ZoL) 移植版本运行良好且日益成熟。但是,除非您在 Linux 上拥有丰富的 ZFS 经验,否则目前不建议在生产环境中使用 zfs
Docker 存储驱动。
注意
在 Linux 平台上还有 ZFS 的 FUSE 实现。不推荐使用此实现,因为它性能较差。原生 ZFS 驱动 (ZoL) 经过更多测试,性能更好,使用更广泛。本文档的其余部分将参考原生 ZoL 移植版本。
先决条件
- ZFS 需要一个或多个专用块设备,最好是固态硬盘 (SSD)。
/var/lib/docker/
目录必须挂载在 ZFS 格式化的文件系统上。- 更改存储驱动会使您已创建的任何容器在本地系统上无法访问。使用
docker save
保存容器,并将现有镜像推送到 Docker Hub 或私有仓库,这样您就不必稍后重新创建它们。
注意
不需要使用
MountFlags=slave
,因为dockerd
和containerd
位于不同的挂载命名空间中。
使用 zfs
存储驱动配置 Docker
停止 Docker。
将
/var/lib/docker/
的内容复制到/var/lib/docker.bk
,并移除/var/lib/docker/
中的内容。$ sudo cp -au /var/lib/docker /var/lib/docker.bk $ sudo rm -rf /var/lib/docker/*
在您的专用块设备上创建一个新的
zpool
,并将其挂载到/var/lib/docker/
。请确保您指定了正确的设备,因为这是一个破坏性操作。此示例将两个设备添加到池中。$ sudo zpool create -f zpool-docker -m /var/lib/docker /dev/xvdf /dev/xvdg
该命令创建
zpool
并将其命名为zpool-docker
。此名称仅用于显示,您可以使用不同的名称。使用zfs list
检查池是否已正确创建和挂载。$ sudo zfs list NAME USED AVAIL REFER MOUNTPOINT zpool-docker 55K 96.4G 19K /var/lib/docker
配置 Docker 使用
zfs
。编辑/etc/docker/daemon.json
并将storage-driver
设置为zfs
。如果该文件之前为空,现在应该看起来像这样:{ "storage-driver": "zfs" }
保存并关闭文件。
启动 Docker。使用
docker info
验证存储驱动是否为zfs
。$ sudo docker info Containers: 0 Running: 0 Paused: 0 Stopped: 0 Images: 0 Server Version: 17.03.1-ce Storage Driver: zfs Zpool: zpool-docker Zpool Health: ONLINE Parent Dataset: zpool-docker Space Used By Parent: 249856 Space Available: 103498395648 Parent Quota: no Compression: off <...>
管理 zfs
增加运行设备的容量
要增加 zpool
的大小,您需要向 Docker 主机添加一个专用块设备,然后使用 zpool add
命令将其添加到 zpool
中:
$ sudo zpool add zpool-docker /dev/xvdh
限制容器的可写存储配额
如果您想按镜像/数据集实现配额,可以设置 size
存储选项来限制单个容器可用于其可写层的空间量。
编辑 /etc/docker/daemon.json
并添加以下内容:
{
"storage-driver": "zfs",
"storage-opts": ["size=256M"]
}
请参阅 守护进程参考文档 中每个存储驱动的所有存储选项
保存并关闭文件,然后重启 Docker。
zfs
存储驱动工作原理
ZFS 使用以下对象:
- 文件系统 (filesystems):精简配置,按需从
zpool
分配空间。 - 快照 (snapshots):文件系统的只读、空间高效的时间点副本。
- 克隆 (clones):快照的读写副本。用于存储与上一层之间的差异。
创建克隆的过程:


- 从文件系统创建只读快照。
- 从快照创建可写克隆。此克隆包含与父层之间的任何差异。
文件系统、快照和克隆都从底层 zpool
分配空间。
磁盘上的镜像和容器层
每个运行中容器的统一文件系统都挂载在 /var/lib/docker/zfs/graph/
中的一个挂载点上。请继续阅读以了解统一文件系统的组成方式。
镜像分层和共享
镜像的基础层是 ZFS 文件系统。每个子层都是基于其下方层的 ZFS 快照创建的 ZFS 克隆。容器是基于创建它的镜像顶层(最高层)的 ZFS 快照创建的 ZFS 克隆。
下图展示了如何使用基于两层镜像的运行中容器实现这一点。


启动容器时,按顺序发生以下步骤:
镜像的基础层作为 ZFS 文件系统存在于 Docker 主机上。
额外的镜像层是直接位于其下方镜像层的数据集的克隆。
在图中,通过对基础层创建 ZFS 快照,然后从该快照创建克隆来添加“Layer 1”。该克隆是可写的,并按需从 zpool 消耗空间。快照是只读的,保持基础层为不可变对象。
启动容器时,在镜像之上添加一个可写层。
在图中,容器的读写层是通过对镜像的顶层(Layer 1)创建快照并从该快照创建克隆来创建的。
当容器修改其可写层的内容时,会为发生更改的块分配空间。默认情况下,这些块的大小为 128k。
容器如何使用 zfs
进行读写操作
读取文件
每个容器的可写层都是一个 ZFS 克隆,它与其创建自的数据集(其父层的快照)共享所有数据。读取操作非常快,即使要读取的数据来自深层。此图说明了块共享的工作原理:


写入文件
写入新文件:按需从底层 zpool
分配空间,并将块直接写入容器的可写层。
修改现有文件:仅为更改的块分配空间,并使用写时复制 (CoW) 策略将这些块写入容器的可写层。这可以最大程度地减小层的大小并提高写入性能。
删除文件或目录:
- 当您删除位于较低层中的文件或目录时,ZFS 驱动会在容器的可写层中屏蔽该文件或目录的存在,即使该文件或目录仍然存在于较低的只读层中。
- 如果您在容器的可写层中创建然后删除文件或目录,这些块将被
zpool
回收。
ZFS 和 Docker 性能
有几个因素会影响使用 zfs
存储驱动的 Docker 性能。
内存:内存对 ZFS 性能有重要影响。ZFS 最初是为拥有大量内存的大型企业级服务器设计的。
ZFS 特性:ZFS 包含重复数据删除功能。使用此功能可以节省磁盘空间,但会占用大量内存。除非您使用 SAN、NAS 或其他硬件 RAID 技术,否则建议您为您与 Docker 一起使用的
zpool
禁用此功能。ZFS 缓存:ZFS 将磁盘块缓存在称为自适应替换缓存 (ARC) 的内存结构中。ZFS 的 Single Copy ARC 特性允许单个缓存块的副本被多个克隆共享。借助此特性,多个运行中的容器可以共享单个缓存块的副本。此特性使得 ZFS 成为 PaaS 和其他高密度用例的良好选择。
碎片化:碎片化是 ZFS 等写时复制文件系统的自然副产品。ZFS 通过使用 128k 的小块大小来减轻这种情况。ZFS 意向日志 (ZIL) 和写入合并(延迟写入)也有助于减少碎片。您可以使用
zpool status
监控碎片化。但是,除了重新格式化和恢复文件系统之外,没有办法对 ZFS 进行碎片整理。使用适用于 Linux 的原生 ZFS 驱动:不建议使用 ZFS FUSE 实现,因为它性能较差。
性能最佳实践
使用快速存储:固态硬盘 (SSD) 提供比机械硬盘更快的读写速度。
对写入密集型工作负载使用卷:卷为写入密集型工作负载提供了最佳且最可预测的性能。这是因为它们绕过了存储驱动,并且不会产生精简配置和写时复制引入的任何潜在开销。卷还具有其他优势,例如允许您在容器之间共享数据,即使没有正在运行的容器使用它们,数据也会持久存在。