[technique] Ajout de g8 au cluster openstack/ceph / upgrade openstack en kilo et ceph en hammer

Laurent GUERBY laurent at guerby.net
Ven 12 Juin 13:07:48 CEST 2015


Bonjour,

L'upgrade openstack en kilo s'etant bien passé nous allons mettre
a jour ceph de "giant" 0.87.1 en "hammer" 0.94.2 cette apres-midi.

Les nouvelles VM livrées depuis quelques jours sont passées de virtio
(/dev/vdX) a virtio-scsi (/dev/sdX) ce qui permet de gerer les commandes
SCSI "TRIM" (discard dans fstab/mount ou via l'utilitaire fstrim en
cron) et recuperer les objets ceph qui sont derrieres les blocks dont le
filesystem n'a plus besoin (prévu au depart pour les SSD mais marche sur
ceph de la meme maniere). virtio-scsi a l'air un peu plus performant
aussi.

Sincèrement,

Laurent

On Mon, 2015-06-01 at 19:23 +0200, Laurent GUERBY wrote:
> Bonjour,
> 
> Avec Mehdi nous avons ajouté cette apres-midi une nouvelle machine au
> cluster openstack/ceph a TLS00 : "g8" Q87M vPro, core i5-4570, 32GB RAM,
> SSD 250G, 3 HDD 5TB,2x2TB et aussi remplacé les disques cassés de n7
> (2x) et g2 (1x). Le cluster est maintenant composé de 9 machines quad
> core soit 36 coeurs, 288 GB de RAM, 2 TB SSD et 70 TB HDD dont 43 TB
> utilisés.
> 
> Le cluster ceph est en cours de reequilibrage ce qui a entrainé quelques
> freezes de VM au début du processus, et qui va durer 2 a 3 jours.
> 
> Nous allons profiter de cette nouvelle machine pour tester cette semaine
> une migration de version Openstack de "Icehouse" (2014) a "Kilo" (2015)
> qui corrige un grand nombre de bugs que nous subissons (en attendant
> la version Liberty fin 2015).
> 
> La version ceph "Hammer" 0.94.1 n'a pas encore tous les fix necessaires
> a un passage en production, la 0.94.2 vient juste de passer les
> tests QA en interne mais n'a pas encore été publiée.
> 
> A noter que nous avons presque fini le stock de cartes reseau Intel
> 2x10G (9 cluster + 1 routeur = 10), il en reste 2 actuellement en pret
> au LAAS qui vont revenir au stock tetaneutral.net dans les prochains
> jours.
> 
> Sincèrement,
> 
> Laurent
> 





Plus d'informations sur la liste de diffusion technique