关于我们

质量为本、客户为根、勇于拼搏、务实创新

新闻公告

< 返回新闻公共列表

ceph -s集群报错too many PGs per OSD怎么办

发布时间:2022-04-12 21:22:31

背景

集群状态报错,如下:

# ceph -s    cluster 1d64ac80-21be-430e-98a8-b4d8aeb18560     health HEALTH_WARN		<-- 报错的地方            too many PGs per OSD (912 > max 300)     monmap e1: 1 mons at {node1=109.105.115.67:6789/0}            election epoch 4, quorum 0 node1     osdmap e49: 2 osds: 2 up, 2 in            flags sortbitwise,require_jewel_osds      pgmap v1256: 912 pgs, 23 pools, 4503 bytes data, 175 objects            13636 MB used, 497 GB / 537 GB avail                 912 active+clean

分析

问题原因是集群osd 数量较少,在我的测试过程中,由于搭建rgw网关、和OpenStack集成等,创建了大量的pool,每个pool要占用一些pg ,ceph集群默认每块磁盘都有默认值,好像每个osd 为300个pgs,不过这个默认值是可以调整的,但调整得过大或者过小都会对集群的性能产生一定影响。因为我们这个是测试环境,只要能消除掉报错即可。查询当前每个osd下最大的pg报警值:

$ ceph --show-config  | grep mon_pg_warn_max_per_osd

mon_pg_warn_max_per_osd = 300

解决方案

在配置文件中,调大集群的此选项的告警阀值;方法如下,在mon节点的ceph.conf(/etc/ceph/ceph.conf)配置文件中添加:

$ vi /etc/ceph/ceph.conf
[global]
.......
mon_pg_warn_max_per_osd = 1000

重启monitor服务:

$ systemctl restart ceph-mon.target

再次查看ceph集群状态。

$ ceph -s

cluster 1d64ac80-21be-430e-98a8-b4d8aeb18560 health HEALTH_OK monmap e1: 1 mons at {node1=109.105.115.67:6789/0}        election epoch 6, quorum 0 node1 osdmap e49: 2 osds: 2 up, 2 in        flags sortbitwise,require_jewel_osds  pgmap v1273: 912 pgs, 23 pools, 4503 bytes data, 175 objects        13636 MB used, 497 GB / 537 GB avail             912 active+clean

以上是“ceph -s集群报错too many PGs per OSD怎么办”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助


免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:leidianyun@qq.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

文本转载自网络



/template/Home/ZdsjuX168/PC/Static

网站通知

尊敬的雷电云用户,您好:

雷电云停止运营,仅保留域名续费!

雷电云停止运营,仅保留域名续费雷电云停止运营,仅保留域名续费
雷电云停止运营,仅保留域名续费雷电云停止运营,仅保留域名续费

我知道了