<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">Ok...after some testing it seems like
      the new 3.4 servers are dropping (or at least not getting)
      multicast packets:<br>
      <br>
      Here is a test between two 3.4 proxmox servers:<br>
      <br>
      root@proxmox3:~# asmping 224.0.2.1 proxmox1.npr.org<br>
      asmping joined (S,G) = (*,224.0.2.234)<br>
      pinging 172.31.2.141 from 172.31.2.33<br>
        unicast from 172.31.2.141, seq=1 dist=0 time=1.592 ms<br>
        unicast from 172.31.2.141, seq=2 dist=0 time=0.163 ms<br>
        unicast from 172.31.2.141, seq=3 dist=0 time=0.136 ms<br>
        unicast from 172.31.2.141, seq=4 dist=0 time=0.117 ms<br>
      ........<br>
      <br>
      --- 172.31.2.141 statistics ---<br>
      11 packets transmitted, time 10702 ms<br>
      unicast:<br>
         11 packets received, 0% packet loss<br>
         rtt min/avg/max/std-dev = 0.107/0.261/1.592/0.421 ms<br>
      multicast:<br>
         0 packets received, 100% packet loss<br>
      <br>
      <br>
      <br>
      and here are two other servers (ubuntu and debian) connected to
      the same set of switches as the servers above:<br>
      <br>
      root@test2:~# asmping 224.0.2.1 testserver1.npr.org<br>
      asmping joined (S,G) = (*,224.0.2.234)<br>
      pinging 172.31.2.125 from 172.31.2.131<br>
      multicast from 172.31.2.125, seq=1 dist=0 time=0.203 ms<br>
        unicast from 172.31.2.125, seq=1 dist=0 time=0.322 ms<br>
        unicast from 172.31.2.125, seq=2 dist=0 time=0.143 ms<br>
      multicast from 172.31.2.125, seq=2 dist=0 time=0.150 ms<br>
        unicast from 172.31.2.125, seq=3 dist=0 time=0.138 ms<br>
      multicast from 172.31.2.125, seq=3 dist=0 time=0.146 ms<br>
        unicast from 172.31.2.125, seq=4 dist=0 time=0.122 ms<br>
      .........<br>
      <br>
      --- 172.31.2.125 statistics ---<br>
      9 packets transmitted, time 8115 ms<br>
      unicast:<br>
         9 packets received, 0% packet loss<br>
         rtt min/avg/max/std-dev = 0.114/0.150/0.322/0.061 ms<br>
      multicast:<br>
         9 packets received, 0% packet loss since first mc packet (seq
      1) recvd<br>
         rtt min/avg/max/std-dev = 0.118/0.142/0.203/0.026 ms<br>
      <br>
      As you can see multicast works fine there.<br>
      <br>
      <br>
      All servers are running 2.6.32 kernels but not all the same
      version (2.6.32-23-pve - 2.6.32-37-pve)<br>
      <br>
      Anyone have any suggestions as to why the Proxmox servers are not
      seeing the multicast traffic?<br>
      <br>
      Thanks,<br>
      <br>
      Shain<br>
      <br>
      On 3/9/15 12:33 PM, Shain Miley wrote:<br>
    </div>
    <blockquote cite="mid:54FDCB77.4040104@npr.org" type="cite">
      <meta http-equiv="Context-Type" content="text/html;
        charset=windows-1252">
      <div class="moz-cite-prefix">I am looking into the possibility
        that there is a multicast issue here as I am unable to ping any
        of the multicast ip address on any of the nodes.<br>
        <br>
        I have reached out to cisco support for some additional help.<br>
        <br>
        I will let you know what I find out.<br>
        <br>
        Thanks again,<br>
        <br>
        Shain<br>
        <br>
        <br>
        On 3/9/15 11:54 AM, Eneko Lacunza wrote:<br>
      </div>
      <blockquote cite="mid:54FDC226.9080000@binovo.es" type="cite">
        <div class="moz-cite-prefix">It seems yesterday something
          happened at 20:40:53:<br>
          <br>
          Mar 08 20:40:53 corosync [TOTEM ] FAILED TO RECEIVE<br>
          Mar 08 20:41:05 corosync [CLM   ] CLM CONFIGURATION CHANGE<br>
          Mar 08 20:41:05 corosync [CLM   ] New Configuration:<br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.48) <br>
          Mar 08 20:41:05 corosync [CLM   ] Members Left:<br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.16) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.33) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.49) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.50) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.69) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.75) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.77) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.87) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.141) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.142) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.161) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.163) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.165) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.215) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.216) <br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.219) <br>
          Mar 08 20:41:05 corosync [CLM   ] Members Joined:<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[16]: 1 2 4 5 6 7 8
          10 11 12 13 14 15 16 17 19<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[15]: 1 2 4 5 6 7 8
          11 12 13 14 15 16 17 19<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[14]: 1 2 4 5 6 7 8
          11 12 14 15 16 17 19<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[13]: 1 2 4 5 6 7 8
          11 12 15 16 17 19<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[12]: 1 2 4 5 6 7 8
          11 12 15 17 19<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[11]: 1 2 4 5 6 7 8
          11 12 15 17<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[10]: 1 2 4 5 6 7 8
          11 12 17<br>
          Mar 08 20:41:05 corosync [CMAN  ] quorum lost, blocking
          activity<br>
          Mar 08 20:41:05 corosync [QUORUM] This node is within the
          non-primary component and will NOT provide any services.<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[9]: 1 2 5 6 7 8 11
          12 17<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[8]: 1 2 5 6 7 11 12
          17<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[7]: 1 2 5 6 7 12 17<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[6]: 1 2 6 7 12 17<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[5]: 1 2 7 12 17<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[4]: 1 2 12 17<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[3]: 1 12 17<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[2]: 1 12<br>
          Mar 08 20:41:05 corosync [QUORUM] Members[1]: 12<br>
          Mar 08 20:41:05 corosync [CLM   ] CLM CONFIGURATION CHANGE<br>
          Mar 08 20:41:05 corosync [CLM   ] New Configuration:<br>
          Mar 08 20:41:05 corosync [CLM   ]     r(0) ip(172.31.2.48) <br>
          Mar 08 20:41:05 corosync [CLM   ] Members Left:<br>
          Mar 08 20:41:05 corosync [CLM   ] Members Joined:<br>
          Mar 08 20:41:05 corosync [TOTEM ] A processor joined or left
          the membership and a new membership was formed.<br>
          Mar 08 20:41:05 corosync [CPG   ] chosen downlist: sender r(0)
          ip(172.31.2.48) ; members(old:17 left:16)<br>
          Mar 08 20:41:05 corosync [MAIN  ] Completed service
          synchronization, ready to provide service<br>
          <br>
          Is the "pvecm nodes" similar in all nodes?<br>
          <br>
          I don't have experience troubleshooting corosync but it seems
          you have to re-estrablish the corosync cluster and quorum.<br>
          <br>
          Check "corosync-quorumtool -l -i" . Also check cman_tool
          command for diagnosing the cluster.<br>
          <br>
          Is corosync service loaded and running? Does restarting it
          change something (service cman restart) ?<br>
          <br>
          <br>
          <br>
          On 09/03/15 16:13, Shain Miley wrote:<br>
        </div>
        <blockquote cite="mid:54FDB89B.1080107@npr.org" type="cite">
          <div class="moz-cite-prefix">Oddly enough...there is nothing
            in the latest corosync logfile...however the one from last
            night (when we started seeing the problem) has a lot of info
            in it.<br>
            <br>
            Here is the link to entire file:<br>
            <br>
            <a moz-do-not-send="true" class="moz-txt-link-freetext"
href="http://717b5bb5f6a032ce28eb-fa7f03050c118691fd4b41bf00a93863.r71.cf1.rackcdn.com/corosync.log.1">http://717b5bb5f6a032ce28eb-fa7f03050c118691fd4b41bf00a93863.r71.cf1.rackcdn.com/corosync.log.1</a><br>
            <br>
            Thanks again for your help so far.<br>
            <br>
            Shain <br>
            <br>
            On 3/9/15 10:53 AM, Eneko Lacunza wrote:<br>
          </div>
          <blockquote cite="mid:54FDB404.8020903@binovo.es" type="cite">
            <div class="moz-cite-prefix">What about
              /var/log/cluster/corosync.log ?<br>
              <br>
              On 09/03/15 15:34, Shain Miley wrote:<br>
            </div>
            <blockquote cite="mid:54FDAF5B.8040700@npr.org" type="cite">
              <div class="moz-cite-prefix">Yes,<br>
                <br>
                All the nodes are pingable and resolvable via their
                hostname. <br>
                <br>
                Here is the ouput of 'pvecm nodes'<br>
                <br>
                <br>
                root@proxmox13:~# pvecm nodes<br>
                Node  Sts   Inc   Joined               Name<br>
                   1   X    964                        proxmox22<br>
                   2   X    964                        proxmox23<br>
                   3   X    756                        proxmox24<br>
                   4   X    808                        proxmox18<br>
                   5   X    964                        proxmox19<br>
                   6   X    964                        proxmox20<br>
                   7   X    964                        proxmox21<br>
                   8   X    964                        proxmox1<br>
                   9   X      0                        proxmox2<br>
                  10   X    756                        proxmox3<br>
                  11   X    964                        proxmox4<br>
                  12   M    696   2014-10-20 01:10:09  proxmox13<br>
                  13   X    904                        proxmox14<br>
                  14   X    848                        proxmox15<br>
                  15   X    856                        proxmox16<br>
                  16   X    836                        proxmox17<br>
                  17   X    964                        proxmox25<br>
                  18   X    960                        proxmox26<br>
                  19   X    868                        proxmox28<br>
                <br>
                Thanks,<br>
                <br>
                Shain<br>
                <br>
                On 3/9/15 10:23 AM, Eneko Lacunza wrote:<br>
              </div>
              <blockquote cite="mid:54FDACD3.5090800@binovo.es"
                type="cite">pvecm nodes</blockquote>
              <br>
              <br>
              <div class="moz-signature">-- <br>
                <title></title>
                <span class="Apple-style-span"><span
                    class="Apple-style-span"><sub><span><img alt="NPR"
                          moz-do-not-send="true" width="40" height="13"> </span></sub><span>|
                      Shain Miley| Manager of Systems and
                      Infrastructure, Digital Media | <a
                        moz-do-not-send="true"
                        class="moz-txt-link-abbreviated"
                        href="mailto:smiley@npr.org">smiley@npr.org</a>
                      | p: 202-513-3649</span></span></span> </div>
            </blockquote>
            <br>
            <br>
            <pre class="moz-signature" cols="72">-- 
Zuzendari Teknikoa / Director Técnico
Binovo IT Human Project, S.L.
Telf. 943575997
      943493611
Astigarraga bidea 2, planta 6 dcha., ofi. 3-2; 20180 Oiartzun (Gipuzkoa)
<a moz-do-not-send="true" class="moz-txt-link-abbreviated" href="http://www.binovo.es">www.binovo.es</a></pre>
          </blockquote>
          <br>
          <br>
          <div class="moz-signature">-- <br>
            <title></title>
            <span class="Apple-style-span"><span
                class="Apple-style-span"><sub><span><img alt="NPR"
                      moz-do-not-send="true" width="40" height="13"> </span></sub><span>|
                  Shain Miley| Manager of Systems and Infrastructure,
                  Digital Media | <a moz-do-not-send="true"
                    class="moz-txt-link-abbreviated"
                    href="mailto:smiley@npr.org">smiley@npr.org</a> | p:
                  202-513-3649</span></span></span> </div>
        </blockquote>
        <br>
        <br>
        <pre class="moz-signature" cols="72">-- 
Zuzendari Teknikoa / Director Técnico
Binovo IT Human Project, S.L.
Telf. 943575997
      943493611
Astigarraga bidea 2, planta 6 dcha., ofi. 3-2; 20180 Oiartzun (Gipuzkoa)
<a moz-do-not-send="true" class="moz-txt-link-abbreviated" href="http://www.binovo.es">www.binovo.es</a></pre>
      </blockquote>
      <br>
      <br>
      <div class="moz-signature">-- <br>
        <title></title>
        <span class="Apple-style-span"><span class="Apple-style-span"><sub><span><img
                  alt="NPR" moz-do-not-send="true" width="40"
                  height="13"> </span></sub><span>| Shain Miley| Manager
              of Systems and Infrastructure, Digital Media | <a
                moz-do-not-send="true" class="moz-txt-link-abbreviated"
                href="mailto:smiley@npr.org">smiley@npr.org</a> | p:
              202-513-3649</span></span></span> </div>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
pve-user mailing list
<a class="moz-txt-link-abbreviated" href="mailto:pve-user@pve.proxmox.com">pve-user@pve.proxmox.com</a>
<a class="moz-txt-link-freetext" href="http://pve.proxmox.com/cgi-bin/mailman/listinfo/pve-user">http://pve.proxmox.com/cgi-bin/mailman/listinfo/pve-user</a>
</pre>
    </blockquote>
    <br>
    <br>
    <div class="moz-signature">-- <br>
      <meta http-equiv="content-type" content="text/html;
        charset=windows-1252">
      <title></title>
      <span class="Apple-style-span" style="border-collapse: separate;
        color: rgb(0, 0, 0); font-family: Times; font-style: normal;
        font-variant: normal; font-weight: normal; letter-spacing:
        normal; line-height: normal; orphans: 2; text-indent: 0px;
        text-transform: none; white-space: normal; widows: 2;
        word-spacing: 0px; font-size: medium;"><span
          class="Apple-style-span" style="font-family: 'Times New
          Roman'; font-size: 16px;"><sub><font size="3" face="Arial"><span
                style="font-size: 12pt; font-family: Arial;"><img
                  alt="NPR" moz-do-not-send="true"
                  src="file:///Users/smiley/Pictures/npr_log_small.jpg"
                  align="top" width="40" height="13"> </span></font></sub><font
            color="gray" size="1" face="Arial"><span style="font-size:
              9pt; font-family: Arial; color: gray;">| Shain Miley|
              Manager of Systems and Infrastructure, Digital Media |
              <a class="moz-txt-link-abbreviated" href="mailto:smiley@npr.org">smiley@npr.org</a> | p: 202-513-3649</span></font></span></span>
    </div>
  </body>
</html>