<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
  </head>
  <body>
    <div class="moz-cite-prefix">Le 28/01/2021 à 18:49, Aymeric via
      technique a écrit :<br>
    </div>
    <blockquote type="cite"
      cite="mid:aba5de28-e28e-45bd-d6f4-2fe1cf37b021@aplu.fr">
      <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
      <p>Oui il y'avait 4 vms sur g5 qu'on a relancé ailleurs. <br>
      </p>
      <p>Le passage à libvirt n'empêche pas ça effectivement, pour le
        coup on avait espoir de revoir g5 en vie sans avoir besoin de
        recupérer les infos des vm des sauvegardes.  <br>
      </p>
      <p>Bref g5 est mort, vive g20 ;)</p>
      <p>Pour la suite :</p>
      <p>L'intervention de Matthieu a permis de remplacer quelques
        disques HS, pas tous malheureusement. <br>
      </p>
      <p>Nous allons remettre le cluster ceph en état de fonctionner, il
        est actuellement en erreur suite a la perte de trop de disques
        (et donc les VM peuvent avoir des erreurs ou lenteur d’accès
        disques). <br>
      </p>
      <p>Aymeric.<br>
      </p>
      <div class="moz-cite-prefix">On 28/01/2021 17:42, Baptiste Jonglez
        wrote:<br>
      </div>
      <blockquote type="cite" cite="mid:YBLpf7uZJAHDOwZQ@thunderclap">
        <pre class="moz-quote-pre" wrap="">Hello,

On 26-01-21, Aymeric via technique wrote:

</pre>
        <blockquote type="cite">
          <pre class="moz-quote-pre" wrap="">Un incident est en cours sur le cluster de VM : nous avons perdu une
machine g5.

Une personne de l’association passe demain, mercredi, à TLS00 pour
regarder le soucis sur g5, nous aviserons en fonction pour relancer les
VMs ailleurs.
</pre>
        </blockquote>
        <pre class="moz-quote-pre" wrap="">Merci pour l'intervention.

La VM cfarm n'est pas joignable, j'imagine qu'il y a eu un souci lors de
l'intervention ?

Est-ce que c'est possible de relancer la VM sur un autre hyperviseur ?
A priori le passage à libvirt n'empêche pas ça vu que le stockage est toujours du Ceph ?

Merci,
Baptiste
</pre>
      </blockquote>
      <pre class="moz-signature" cols="72">-- 
Aymeric</pre>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <pre class="moz-quote-pre" wrap="">_______________________________________________
technique mailing list
<a class="moz-txt-link-abbreviated" href="mailto:technique@lists.tetaneutral.net">technique@lists.tetaneutral.net</a>
<a class="moz-txt-link-freetext" href="http://lists.tetaneutral.net/listinfo/technique">http://lists.tetaneutral.net/listinfo/technique</a>
</pre>
    </blockquote>
    <p>Bonjour Tetaneutral.</p>
    <p>Un très grand merci pour l'intervention d'hier de la part du PIC:
      notre cloud était très très lent mardi soir et mercredi, depuis ce
      matin il est revenu à la normale. Ci-dessous un petit graphique de
      nos outils de supervision, quand c'est jaune le processeur se
      tourne les pouces (idle), quand c'est bleu foncé pareil, sauf
      qu'il est en attente d'I/O (iowait)... et les utilisateurs aussi.
      <br>
    </p>
    <p>Emmanuel<br>
    </p>
    <p><img class="i"
src="https://supervision.le-pic.org/munin-cgi/munin-cgi-graph/Tetaneutral/piccloud.le-pic.org/cpu-week.png"
        alt="CPU usage"></p>
    <p><br>
    </p>
    <p><br>
    </p>
    <p><br>
    </p>
  </body>
</html>