[technique] INCIDENT: perte de g4 / perte de deux machines physiques du cluster g2 et stri 20151026 / cluster down
Hugues Brunel
hugues.brunel at fullsave.com
Mer 28 Oct 17:01:49 CET 2015
Bravo pour le boulot!
>
> je l'ai remplacée par une machine donnée par l'association ISF
>
Ca explique le bruit dans le couloir devant la salle de TLS00 :-)
Ca m'a inquiété, je suis allé vérifier que tout allait bien tout à l'heure...
et tout a l'air d'aller bien ;-)
++
Ughy.
> Le 27 oct. 2015 à 23:45, Laurent GUERBY <laurent at guerby.net> a écrit :
>
> Bonsoir,
>
> Dans la suite des aventures au pays de Murphy la machine g4 a planté
> plusieurs fois dans la journée, comme c'est probablement un probleme
> materiel je l'ai remplacée par une machine donnée par l'association ISF
> http://www.isf.cc/ a tetaneutral.net la semaine derniere. En transvasant
> les disques cela a l'air de fonctionner depuis un peu plus d'une heure.
>
> J'ai envoyé une requete sur la liste des utilisateurs ceph
> et notre probleme d'OSD qui ne demarre pas semble
> etre corrigé en 0.94.4 (on est en 0.94.2) :
>
> http://tracker.ceph.com/issues/13060
> http://lists.ceph.com/pipermail/ceph-users-ceph.com/2015-October/005727.html
>
> On ne peut pas utiliser directement 0.94.4 a cause d'un bug ceph/KVM
> deja identifié sur ceph-users :
>
> https://www.mail-archive.com/ceph-users@lists.ceph.com/msg24339.html
> http://tracker.ceph.com/issues/13559
>
> Et d'un autre bug qu'on a reporté il y a un moment et dont le fix a eté
> commité seulement apres 0.94.4 :
>
> http://tracker.ceph.com/issues/10399
>
> 0.94 est une release LTS de ceph, reste a voir si on package une
> 0.94.4 + fix qui nous interessent (probable).
>
> Sincèrement,
>
> Laurent
>
> On Mon, 2015-10-26 at 22:53 +0100, Laurent GUERBY wrote:
>> Bonsoir,
>>
>> Le cluster est toujours en recovery mais ca n'impacte plus trop les VM
>> visiblement.
>>
>> Il reste 3 VM adherents down (ilico, phoeneeks, uind) que je ne peux pas
>> redemarrer a cause d'un etat openstack incoherent ("cannot xxx while it
>> is in task_state powering-off"), il faudra que Mehdi jette un oeil
>> depuis Tokyo :).
>>
>> Sincèrement,
>>
>> Laurent
>>
>> On Mon, 2015-10-26 at 12:48 +0100, Laurent GUERBY wrote:
>>> Bonjour,
>>>
>>> Le cluster est toujours en recovery :
>>>
>>> 102 requests are blocked > 32 sec
>>> recovery 2954723/65811225 objects degraded (4.490%)
>>> recovery 2587563/65811225 objects misplaced (3.932%)
>>> recovery 13/10406629 unfound (0.000%)
>>>
>>> pg 87.16 is active+recovery_wait+undersized+degraded+remapped, acting
>>> [30,8,16,25,18,2147483647,1,14,39,9], 7 unfound
>>> pg 87.7b is active+recovery_wait+undersized+degraded+remapped, acting
>>> [17,30,15,2147483647,25,1,9,35,39,16], 6 unfound
>>>
>>>
>>> Les "unfound" sont sur un pool utilisé par une seule VM, a priori
>>> il n'y aura pas de perte de donnée malgré la perte de 3 disques (2 dans
>>> le pool SSD qui est en redondance triple, et 1 dans le pool HDD qui est
>>> soit triple soit 4+1 en cours de migration vers 4+2) mais la recovery
>>> risque de durer encore une journee.
>>>
>>> Une fois la recovery finie nous ajouterons quelques disques
>>> SSD neufs et proposerons une migration des petits disques systeme
>>> (20G) sur le pool ceph SSD : les VMs qui sont sur le pool ceph SSD sont
>>> deja revenues en ligne.
>>>
>>> Sincèrement,
>>>
>>> Laurent
>>>
>>> On Mon, 2015-10-26 at 08:31 +0100, Laurent GUERBY wrote:
>>>> Bonjour,
>>>>
>>>> A 23h04 dimanche 20151025 la machine physique "stri" du cluster a planté
>>>> et ce lundi 20151026 a 5h17 la machine "g2" du cluster a aussi planté.
>>>>
>>>> Avec IPMI j'ai redemarré stri et la machine est revenue, avec vPro
>>>> sur g2 j'ai fait un fsck manuel sur sda2 puis la machine est
>>>> revenue.
>>>>
>>>> Pendant le redemarrage g1 a 7h56 a aussi disparu, la aussi
>>>> redemarrage au vPro.
>>>>
>>>> Apres ces redemarrages il y a actuellement 3 OSD avec un soucis :
>>>>
>>>> osd.0 hdd sur g1 refuse de demarrer sur un ASSERT :
>>>> http://tracker.ceph.com/issues/13594
>>>>
>>>> osd.12 SSD n'existe plus (?) sur stri
>>>> root at stri:/var/log/ceph# /etc/init.d/ceph start osd.12
>>>> /etc/init.d/ceph: osd.12 not found (/etc/ceph/ceph.conf defines osd.14
>>>> osd.13 osd.15 , /var/lib/ceph defines osd.14 osd.13 osd.15)
>>>>
>>>> osd.4 SSD sur g2 pareil :
>>>> root at g2:/var/log/ceph# /etc/init.d/ceph start osd.4
>>>> /etc/init.d/ceph: osd.4 not found (/etc/ceph/ceph.conf defines mon.g2
>>>> osd.1 osd.21 osd.7 , /var/lib/ceph defines mon.g2 osd.1 osd.21 osd.7)
>>>>
>>>> Probablement un probleme puppet, j'attend le retour de Mehdi.
>>>>
>>>> En l'etat actuel les VM sont quasiment toutes down.
>>>>
>>>> Sincèrement,
>>>>
>>>> Laurent
>>>
>>
>
>
> _______________________________________________
> technique mailing list
> technique at lists.tetaneutral.net
> http://lists.tetaneutral.net/listinfo/technique
-------------- section suivante --------------
Une pièce jointe autre que texte a été nettoyée...
Nom: signature.asc
Type: application/pgp-signature
Taille: 496 octets
Desc: Message signed with OpenPGP using GPGMail
URL: <http://lists.tetaneutral.net/pipermail/technique/attachments/20151028/155f6462/attachment.sig>
Plus d'informations sur la liste de diffusion technique