<div dir="ltr"><span style="font-family:arial,sans-serif;font-size:13px">Correct in your case, but not all Proxmox users have MSTP/PVST+ configured. </span><div style="font-family:arial,sans-serif;font-size:13px"><br></div>
<div style="font-family:arial,sans-serif;font-size:13px">A much lower risk strategy is to use Multi-Chassis Link Aggregation Groups between Switch-A and Switch-B with a 4 port "bond" on the Proxmox hosts, using a L3/L4 hash you will achieve better load balancing of traffic across all 4 links and as this requires no changes to Proxmox will not introduce the chance of loops.</div>
<div style="font-family:arial,sans-serif;font-size:13px"><br></div><div style="font-family:arial,sans-serif;font-size:13px">We have had this in production for 13 months now with no issues.</div><div style="font-family:arial,sans-serif;font-size:13px">
<br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, Feb 12, 2014 at 9:55 PM, Pablo Ruiz <span dir="ltr"><<a href="mailto:pablo.ruiz@gmail.com" target="_blank">pablo.ruiz@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">That's what MSTP/PVSTP+ is supposed to avoid. (And infact, it does so in our environment).. however, it requires switches with such capability.</div>
<div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><br><div class="gmail_quote">

On Wed, Feb 12, 2014 at 9:53 AM, Andrew Thrift <span dir="ltr"><<a href="mailto:andrew@networklabs.co.nz" target="_blank">andrew@networklabs.co.nz</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">


<div dir="ltr">While this is a very neat way to load balance vlan traffic, it could be dangerous.<div><br></div><div>You are effectively allowing users to create a loop. Unless they have their switches and spanning tree configured correctly upstream of the host, they could create a large broadcast storm on their network, likely knocking out other hosts and switches control planes.</div>



<div><br></div><div>It is the same as looping a cable between two ports on a switch that does not have edge-safeguard functionality.</div><div><br></div><div>Just my 2c.</div><div><br></div><div><br></div></div><div class="gmail_extra">



<br><br><div class="gmail_quote"><div><div>On Wed, Feb 12, 2014 at 6:28 PM, Pablo Ruiz <span dir="ltr"><<a href="mailto:pablo.ruiz@gmail.com" target="_blank">pablo.ruiz@gmail.com</a>></span> wrote:<br></div>

</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div>
<div dir="ltr">Hi,<div><br></div><div>In our proxmox cluster, each node has two bond interfaces, and each bond interface connects to and independent switch. This allows us to enable MSTP/PVSTP+ and thus load share traffic on different vlans across switches.</div>





<div><br></div><div>                                  +==========+</div><div>                                   |  SWITCH-A  |---,</div><div>                                  +==========+   |</div><div>      +=======+                   |                 |</div>





<div>      |               |-----(bond1)--´                 |</div><div>-----|  Node-X  |                                  (trunk)</div><div>      |               |-----(bond2)--,                 |</div><div>      +=======+                   |                 |</div>





<div><div>                                  +==========+   |</div><div>                                   |  SWITCH-B  |---´</div><div>                                  +==========+</div></div><div><br></div><div>In this setup, we have a couple of vlans (iSCSI-A & iSCSI-B) each which has been priorized (by means of MSTP/PVST) on each switch. Also, proxmox's internal (software) bridges have STP disabled (so they do not conflict with MSTP's traffic). With this setup we are able to achieve full-redundant network interconnects, while at the same time using both links/bonds for iSCSI traffic (with multipath+round-robin).</div>





<div><br></div><div>However, proxmox's current code doesnt allow bridges with more than one physical interface, something we had to apply an small enhacement to proxmox in order to setup our cluster as stated.</div><div>





<br></div><div>We would like to have this enhacement merged into proxmox, and so I've read about proxmox development policies, etc. And as stated here is the link containing a diff format patch: <a href="https://github.com/pruiz/pve-common/commit/ce0173a1079e4fc8bb08d9eebd1df71f0f8dc3fe.diff" target="_blank">https://github.com/pruiz/pve-common/commit/ce0173a1079e4fc8bb08d9eebd1df71f0f8dc3fe.diff</a> aswell as the prettified diff from github: <a href="https://github.com/pruiz/pve-common/commit/ce0173a1079e4fc8bb08d9eebd1df71f0f8dc3fe" target="_blank">https://github.com/pruiz/pve-common/commit/ce0173a1079e4fc8bb08d9eebd1df71f0f8dc3fe</a></div>





<div><br></div><div>This code has been in production for little more than a month with no issues. But, please let me know what maybe missing and/or what amendments needs to be done in order for this patch to be accepted into proxmox.</div>





<div><br></div><div>Best regards,</div><div>Pablo</div><div><br></div><div>PD: I'll be sending the signed contribution aggrement by tomorrow, as soon as I get to my office. As I hope to send another contribution regarding ZFS plugin next.</div>





</div>
<br></div></div>_______________________________________________<br>
pve-devel mailing list<br>
<a href="mailto:pve-devel@pve.proxmox.com" target="_blank">pve-devel@pve.proxmox.com</a><br>
<a href="http://pve.proxmox.com/cgi-bin/mailman/listinfo/pve-devel" target="_blank">http://pve.proxmox.com/cgi-bin/mailman/listinfo/pve-devel</a><br>
<br></blockquote></div><br></div>
</blockquote></div><br></div>
</div></div></blockquote></div><br></div>