[technique] DELL R720

Alexandre GUY alex at euronode.com
Dim 27 Sep 12:00:58 CEST 2020


> Le 26 sept. 2020 à 21:14, Mathieu Goessens (Breizh-Entropy) <mathieu at breizh-entropy.org> a écrit :
> 
> 
> 
> Alexandre GUY via technique:
>>> Le 25 sept. 2020 à 20:31, Fabien ADAM via technique <technique at lists.tetaneutral.net> a écrit :
>>> Le 23/09/2020 à 23:34, Alexandre GUY via technique a écrit :
>>>> Matthieu Herrb a passé hier ma VM à 4Go de ram, cette nuit pas de services oom-killés, pas eu à les relancer à la mano ce matin, on verra demain.
>>> 
>>> 
>>> Tu vois, c'était la RAM, pas le cluster Ceph ;)
>>> 
>>> D’ailleurs, tu peux nous dire si le temps de sauvegarde a éventuellement baissé suite à cette opération ?
>> 
>> Aujourd’hui le backup s’est terminé à 10h, il a donc mis « que » 7h, au lieu de 10h avant l’augmentation de la ram.
>> 
>> Le passage à 4Go de ram a amélioré le temps de sauvegarde, je n’ai pas pris de OOM killer, c’est cool … mais 7h ça continue d’être long, car pendant ce temps, la VM est un peu à la ramasse. Donc ça ne résout pas complètement les problèmes de lenteur pour accéder à pleins de petits fichiers.
> 
> As-tu regardé quelles étapes prenaient du temps ?
> 
> Veux tu partager tes scripts // un aperçu des volumes de données qu'ils
> traitent?
> 
> Les maildirs plein de petits fichiers c'est *jamais* rigolo à backuper,
> mais peut être y a t il des choses à faire pour améliorer leurs
> performances, par exemple,
> 
> - si tu fais tous tes tgz d'un coup, puis les copie, tous d'un coup, les
> copier juste après les avoir générés permettrait d'éviter de les relire
> (et potentiellement de paralléliser)
> 
> - si les fichiers sont gros (trop pour tenir en ram), et changent tous
> les jours, scp à la place d'rsync sera vraisemblablement plus performant
> (pas de comparaison de checksum sources / destinations, d'autant plus
> important si c'est sur des répertoires entiers)
> 
> - je suppose que tu n'utilises pas rsync -z ? Sinon, il ne sert
> vraisemblablement à rien, les fichiers étant déjà compréssés.
> 
> - si tu gzip plusieurs Go à chaque fois, et a plusieurs cores, pigz
> (https://zlib.net/pigz/) devrait etre plus performant que gzip (tu peux
> le ln -s / dpkg --divert à la place de gzip), le gain est quasi linéaire
> par rapport au nombre de cores.
> 
> - gzip, comme pigz permettent de régler le niveau de compression.
> Généralement diminuer celui-ci raisonnablement impacte peu la taille des
> fichiers générés mais énormément les temps d’exécution (et peut être la
> mémoire).
> 
> - la réactivité de ton système s'en ressent elle si tu lances tes
> scripts à coup de nice -n10 ( / -n15 / -n20 ) sans que cela augmente
> trop les temps de backup ?
> 
> - quid de juste rsync sur ton serveur et faire les tgz à l'autre bout
> (tu profiteras ainsi pleinement du coté incrémental d'rsync) ?
> 
> (Ce ne sont que des suggestions, ça ne doit effectivement pas être drole
> 7h à chaque fois...)
> 
> [Edit: même message avec le bon from: pour passer sur la liste, pardon
> pour les doublons]
> 
> -- 
> Mathieu

Re-bonjour Mathieu,

Je n’ai pas lancé ce thread pour avoir des conseils sur comment optimiser mes backups, mais pour parler des IO disques lents sur Ceph et de proposer une solution pour utiliser le DELL.

Ton message contient des choses que je connais déjà, et que je fais par ailleurs, voir notamment ma réponse à Sébastien.

Bon dimanche,

Alex.



Plus d'informations sur la liste de diffusion technique