将设为首页浏览此站
开启辅助访问 天气与日历 收藏本站联系我们切换到窄版

易陆发现论坛

 找回密码
 开始注册
查看: 346|回复: 2
收起左侧

HEALTH_WARN 1 failed cephadm daemon(s)

[复制链接]
发表于 2021-7-25 20:37:36 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?开始注册

x
HEALTH_WARN 1 failed cephadm daemon(s)
+ P5 `) N8 C  j" k' z. r3 Pceph health detail
" D' |, q5 R- B+ ^+ X2 C9 ZHEALTH_WARN 2 failed cephadm daemon(s)  K/ J8 o! @6 O# T( s
[WRN] CEPHADM_FAILED_DAEMON: 2 failed cephadm daemon(s)3 ^6 j1 `4 f4 h' X; }  D. E
    daemon alertmanager.controller on controller is in error state
) ]) X- B- A3 u8 ]    daemon grafana.controller on controller is in error state* a* K# J! L, _5 w$ v3 \' W& a# G

3 g6 M: N# H: C8 ~  b1 Q' G& v# E8 D  l. S& B& |  u
 楼主| 发表于 2021-7-25 20:52:05 | 显示全部楼层
经过排查,应该是系统层间安装过ceph集群,没有清理干净。新版本还不知道怎么全部清除,还在测试中。
 楼主| 发表于 2021-7-25 20:59:12 | 显示全部楼层
[root@compute01 ~]# ceph status
. x, ~4 Z: r- \1 L: M! Z  cluster:9 f5 j! w9 O5 s) U
    id:     4c1f752a-ed1a-11eb-8ce5-0025908471d65 [2 k# n0 a( }% U# `, t  T& C
    health: HEALTH_WARN' L( C+ M2 \7 a4 i0 c2 ?
            2 failed cephadm daemon(s)7 F' i* ^. }( ]9 c1 X5 z. ?
            clock skew detected on mon.compute010 C6 f) |! ]; r9 e  e0 y

5 @2 F7 r  C2 w* L( @8 [  services:
, T: \# U; v7 U! V! r. q! U: ~    mon: 2 daemons, quorum controller,compute01 (age 3h)
( d& b; D& x6 X% |$ m    mgr: compute01.getqhn(active, since 3h), standbys: controller.kxfttd' |* v7 x: [2 V1 Q& o
    osd: 3 osds: 3 up (since 3h), 3 in (since 3h)
: O' x6 Z: v# l! d / {' A! p( e6 _! p9 q
  data:) ?* A+ r& I2 A8 Y$ U/ K
    pools:   1 pools, 1 pgs
  _/ v: ~( W: R( U- D9 e2 C    objects: 0 objects, 0 B& M' B8 }8 l) P& N/ `0 t
    usage:   3.0 GiB used, 1.2 TiB / 1.2 TiB avail
5 J- z2 D8 R- v. a0 G    pgs:     1 active+clean, [( y' d, o1 q
3 W* u9 m8 f) C! m( u
: L. `3 S% S8 Z. ?/ T' r: l4 ^  D. J
[root@compute01 ~]# systemctl status ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6% u" P3 V. Y! b4 U- Y$ x2 P& S7 }
ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@crash.compute01.service          ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@osd.0.service) j! }* f  k6 h# Y! H
ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@mgr.compute01.bunbzp.service     ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6.target
8 A2 z% E1 S; _# hceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@node-exporter.compute01.service  # C2 ^4 f4 C( W+ o: A( W  G
[root@compute01 ~]# systemctl status ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6
$ `( m$ S/ ?5 z1 V% ^3 U4 V8 I9 hceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@crash.compute01.service          ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@osd.0.service
1 E" z5 f# a& _6 }! n. G! Eceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@mgr.compute01.bunbzp.service     ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6.target
" g- a3 f& ~. k  tceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@node-exporter.compute01.service  3 h/ C( e# [$ Z( y8 P
# s7 V6 W2 [# A2 _. k8 J! Q5 G2 M8 [0 B

% L* v7 a! j% e& y
3 h, z; O% }. y- S% I+ s6 Y' d3 x" R1 S- ]' p
[root@compute01 ~]# systemctl disable ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@crash.compute01.service          ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@osd.0.service ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@mgr.compute01.bunbzp.service     ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6.target ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@node-exporter.compute01.service
- G- l5 S5 m, }Removed [url=]/etc/systemd/system/ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6.target.wants/ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@crash.compute01.service[/url].
# F' I: C' S* y+ N& URemoved [url=]/etc/systemd/system/ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6.target.wants/ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@mgr.compute01.bunbzp.service[/url].3 Q( h# l1 {& i9 D8 e. N/ G
Removed [url=]/etc/systemd/system/ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6.target.wants/ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@node-exporter.compute01.service[/url].$ @4 \- X, D# ]3 x
Removed [url=]/etc/systemd/system/ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6.target.wants/ceph-1e87bca4-e7ce-11eb-aa90-0025908471d6@osd.0.service[/url].9 B$ h3 p" q: D8 y

1 G( e9 q6 ]5 Q5 i: m4 [6 x$ M0 D$ P3 [5 f# I  a0 v( p
[root@compute01 ~]# cd /var/lib/ceph
* F# i$ f; @9 G+ A9 U' ~1 a& `/ w. I5 j' P, l
[root@controller ~]# cd /var/lib/ceph; d, N$ @1 B) a. `4 D9 I. h
[root@controller ceph]# rm -rf 1e87bca4-e7ce-11eb-aa90-0025908471d6/
$ ?" W. t. A& R! V: ^, C" |5 z2 @! g( U$ }4 d! Y8 F& @$ l

: _- Q: L4 @6 `7 \( q8 A$ U7 u8 ?[root@controller ceph]# ceph status  
: T$ p/ d4 ~% B- J/ P  W7 p. L- \  cluster:
; a+ l1 O. K1 p) L/ C6 i5 M* `    id:     4c1f752a-ed1a-11eb-8ce5-0025908471d6) U" b3 t8 y  N1 M& H
    health: HEALTH_OK
4 m0 y6 y7 G3 d. @ ; K" V; F5 c6 a* Z5 U1 Z/ @
  services:
- r" h+ g; i6 ]$ ]) j5 h  L0 k: v+ V    mon: 2 daemons, quorum controller,compute01 (age 84s)
9 j- @0 v& t; l0 K' i$ Z    mgr: compute01.getqhn(active, since 30s)7 x$ `4 U5 S! `: J: d1 Q$ N/ G
    osd: 3 osds: 3 up (since 14s), 3 in (since 4h)4 Y0 n- t1 m2 w

3 Q; D% c7 d8 Z! M  [  data:( S! b% M7 I" L" U6 [. @. G
    pools:   1 pools, 1 pgs
" P, o  f$ [8 f; {5 r( k" ?    objects: 0 objects, 0 B
4 m( S5 m5 {/ ^7 W    usage:   3.0 GiB used, 1.2 TiB / 1.2 TiB avail, T$ K$ ]+ W2 Z# n1 R
    pgs:     1 active+clean
5 D5 o' T: B2 M; q6 f: D+ N% G
8 l6 ~$ X: J, r+ \- L* J/ W问题竟然解决。
$ m, F! h2 N$ l2 L1 Y! P  y' H9 g
5 [/ \3 Y$ O$ I  d4 O, E) e  W
您需要登录后才可以回帖 登录 | 开始注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

如有购买积分卡请联系497906712

QQ|返回首页|Archiver|手机版|小黑屋|易陆发现 点击这里给我发消息

GMT+8, 2021-9-27 03:26 , Processed in 0.042502 second(s), 22 queries .

Powered by LR.LINUX.cloud bbs168x X3.2 Licensed

© 2012-2022 Comsenz Inc.

快速回复 返回顶部 返回列表