[technique] [INCIDENT] perte de disque sur le cluster 20151130 17h et recovery tres difficile / arret des VM
Laurent GUERBY
laurent at guerby.net
Mar 1 Déc 13:52:13 CET 2015
Bonjour,
Lundi 20151130 vers 17h nous avons un perdu un disque, avec
Mehdi nous avons alors pris la decision d'ajouter les
deux nouvelles machines au cluster pour compenser en activant
quelques bug fix ceph de repartition de donnee au passage.
Malheureusement len recovery es OSD ont commencé a prendre enormement
de RAM jusqu'a plus de 10 GB RAM / TB disque alors que la documentation
ceph recommande 1 GB par TB.
Une description plus technique est la :
http://lists.ceph.com/pipermail/ceph-users-ceph.com/2015-December/006428.html
Mehdi a reconstruit les packages ceph 0.94.5 avec trois bug fix
liés a la memoire mais cela n'a pas suffit. Nous avons ensuite :
- arrete toutes les VM
- revenu en arriere sur les repartition de donnees
- desactivé la plupart des actions ceph :
norecovery nobackfill notieragent noout nodown
- ajouté 64 GB de swap a chaque machine en swapfile
- forcé des release de RAM via ceph tell osd.N heap release
- et enfin volontairement arrete quelques OSD
qui n'arrivaient pas a rester stable, puis
nous les avons relancé progressivement au fur
et a mesure de l'amelioration
Nous sommes actuellement revenus a un cluster
avec tous les OSD up et un recovery qui progresse
meme si le volume de donnee a replacer est tres consequent.
Liste des trackers de bug ceph mentionnés sur IRC :
http://tracker.ceph.com/issues/12565
http://tracker.ceph.com/issues/12681
http://tracker.ceph.com/issues/13642
http://tracker.ceph.com/issues/13692
http://tracker.ceph.com/issues/13821
Nous allons relancer prudemment toutes les VM entre
aujourd'hui et demain.
Sincèrement,
Laurent
root at g2:~# ceph -s
cluster 1fe74663-8dfa-486c-bb80-3bd94c90c967
health HEALTH_WARN
2424 pgs backfill
5 pgs backfilling
3200 pgs degraded
7 pgs recovering
2793 pgs recovery_wait
3200 pgs stuck degraded
5 pgs stuck inactive
5229 pgs stuck unclean
401 pgs stuck undersized
401 pgs undersized
recovery 6856503/105606816 objects degraded (6.492%)
recovery 39949831/105606816 objects misplaced (37.829%)
noout,noscrub,nodeep-scrub,notieragent flag(s) set
monmap e8: 3 mons at
{g1=192.168.99.251:6789/0,g2=192.168.99.252:6789/0,g3=192.168.99.253:6789/0}
election epoch 1374, quorum 0,1,2 g1,g2,g3
osdmap e221429: 50 osds: 50 up, 50 in; 2520 remapped pgs
flags noout,noscrub,nodeep-scrub,notieragent
pgmap v35402763: 11264 pgs, 6 pools, 44128 GB data, 13185 kobjects
68298 GB used, 32359 GB / 100658 GB avail
6856503/105606816 objects degraded (6.492%)
39949831/105606816 objects misplaced (37.829%)
6035 active+clean
2704 active+recovery_wait+degraded
2029 active+remapped+wait_backfill
389 active+undersized+degraded+remapped+wait_backfill
82 active+recovery_wait+degraded+remapped
7 active+recovery_wait+undersized+degraded+remapped
5 active+recovering+degraded
5 undersized+degraded+remapped+wait_backfill+peered
5 active+degraded+remapped+backfilling
2 active+recovering+degraded+remapped
1 active+degraded+remapped+wait_backfill
recovery io 170 MB/s, 42 objects/s
client io 0 B/s rd, 214 kB/s wr, 21 op/s
Plus d'informations sur la liste de diffusion technique