[technique] DELL R720
Mathieu Goessens (Breizh-Entropy)
mathieu at breizh-entropy.org
Sam 26 Sep 21:14:29 CEST 2020
Alexandre GUY via technique:
>> Le 25 sept. 2020 à 20:31, Fabien ADAM via technique <technique at lists.tetaneutral.net> a écrit :
>> Le 23/09/2020 à 23:34, Alexandre GUY via technique a écrit :
>>> Matthieu Herrb a passé hier ma VM à 4Go de ram, cette nuit pas de services oom-killés, pas eu à les relancer à la mano ce matin, on verra demain.
>>
>>
>> Tu vois, c'était la RAM, pas le cluster Ceph ;)
>>
>> D’ailleurs, tu peux nous dire si le temps de sauvegarde a éventuellement baissé suite à cette opération ?
>
> Aujourd’hui le backup s’est terminé à 10h, il a donc mis « que » 7h, au lieu de 10h avant l’augmentation de la ram.
>
> Le passage à 4Go de ram a amélioré le temps de sauvegarde, je n’ai pas pris de OOM killer, c’est cool … mais 7h ça continue d’être long, car pendant ce temps, la VM est un peu à la ramasse. Donc ça ne résout pas complètement les problèmes de lenteur pour accéder à pleins de petits fichiers.
As-tu regardé quelles étapes prenaient du temps ?
Veux tu partager tes scripts // un aperçu des volumes de données qu'ils
traitent?
Les maildirs plein de petits fichiers c'est *jamais* rigolo à backuper,
mais peut être y a t il des choses à faire pour améliorer leurs
performances, par exemple,
- si tu fais tous tes tgz d'un coup, puis les copie, tous d'un coup, les
copier juste après les avoir générés permettrait d'éviter de les relire
(et potentiellement de paralléliser)
- si les fichiers sont gros (trop pour tenir en ram), et changent tous
les jours, scp à la place d'rsync sera vraisemblablement plus performant
(pas de comparaison de checksum sources / destinations, d'autant plus
important si c'est sur des répertoires entiers)
- je suppose que tu n'utilises pas rsync -z ? Sinon, il ne sert
vraisemblablement à rien, les fichiers étant déjà compréssés.
- si tu gzip plusieurs Go à chaque fois, et a plusieurs cores, pigz
(https://zlib.net/pigz/) devrait etre plus performant que gzip (tu peux
le ln -s / dpkg --divert à la place de gzip), le gain est quasi linéaire
par rapport au nombre de cores.
- gzip, comme pigz permettent de régler le niveau de compression.
Généralement diminuer celui-ci raisonnablement impacte peu la taille des
fichiers générés mais énormément les temps d’exécution (et peut être la
mémoire).
- la réactivité de ton système s'en ressent elle si tu lances tes
scripts à coup de nice -n10 ( / -n15 / -n20 ) sans que cela augmente
trop les temps de backup ?
- quid de juste rsync sur ton serveur et faire les tgz à l'autre bout
(tu profiteras ainsi pleinement du coté incrémental d'rsync) ?
(Ce ne sont que des suggestions, ça ne doit effectivement pas être drole
7h à chaque fois...)
[Edit: même message avec le bon from: pour passer sur la liste, pardon
pour les doublons]
--
Mathieu
Plus d'informations sur la liste de diffusion technique