Ceph集群将所有存储资源池化,支持精简模式,支持预先分配容量,只有真实写进去的数据才会占用实际的存储空间。所以集群对外提供的存储资源,往往会大于集群的实际物理容量,这使得在将来的某个时刻,集群有被写满的可能。所以,管理员需要经常观察集群的容量变化,并且及早的针对存储资源不足做出应对措施。
要检查集群的数据量和已有资源池的分布情况,可以使用以下命令进行,它和linux中的df命令相似。
# ceph df
GLOBAL:
SIZE AVAIL RAW USED %RAW USED
79829M 75571M 4258M 5.33
POOLS:
NAME ID USED %USED MAX AVAIL OBJECTS
rbd 0 4086M 5.12 23594M 1731
cephfs_data 2 0 0 23594M 0
cephfs_metadata 3 1962 0 23594M 20
其输出分成两部分:
1)GLOBAL
这部分展示了集群整体的存储空间使用率情况。
- SIZE:集群的总容量
- AVAIL:集群的空闲容量
- RAW USED:已经使用的存储容量
- %RAW USED:已用存储空间比率。
2)POOLS
这部分展示了目前集群中的存储池列表,以及存储池的大致使用率。这里的统计没有计入副本、克隆资源以及快照占用的资源。
- NAME:存储池名称
- ID:存储池唯一编号
- USED:存储池中的大概数据量
- %USED:存储池数据的大概使用率
- MAX AVAIL:
- Objects:存储池中已有Object的个数
另外您也可以通过以下命令获取存储池更为详细的信息:
# rados df help
pool name KB objects clones degraded unfound rd rd KB wr wr KB
cephfs_data 0 0 0 0 0 0 0 0 0
cephfs_metadata 2 20 0 0 0 0 0 63 16
rbd 4184401 1731 0 0 0 133 167 7582 15125
total used 4360196 1751
total avail 77385676
total space 81745872