<div dir="ltr">Just to complete this subject: Is it a recommendation that we used the same hardware or not necessarily??<br></div><div class="gmail_extra"><br><br><div class="gmail_quote">2014-09-05 10:23 GMT-03:00 Chris Murray <span dir="ltr"><<a href="mailto:chrismurray84@gmail.com" target="_blank">chrismurray84@gmail.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-GB" link="blue" vlink="purple"><div><p class="MsoNormal"><span style="color:#1f497d">Of course the typical thing has happened; as soon as I ask for help, I’ve resolved it myself.<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><p class="MsoNormal"><span style="color:#1f497d">I enabled No Execute in the BIOS of host ‘B’. VMs will now migrate back and forth without complaint.<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><div><div style="border:none;border-top:solid #b5c4df 1.0pt;padding:3.0pt 0cm 0cm 0cm"><p class="MsoNormal"><b><span lang="EN-US" style="font-size:10.0pt;font-family:"Tahoma","sans-serif"">From:</span></b><span lang="EN-US" style="font-size:10.0pt;font-family:"Tahoma","sans-serif""> pve-user [mailto:<a href="mailto:pve-user-bounces@pve.proxmox.com" target="_blank">pve-user-bounces@pve.proxmox.com</a>] <b>On Behalf Of </b>Chris Murray<br><b>Sent:</b> 05 September 2014 14:08<br><b>To:</b> <a href="mailto:pve-user@pve.proxmox.com" target="_blank">pve-user@pve.proxmox.com</a><br><b>Subject:</b> Re: [PVE-User] 100% CPU usage after live migration onheterogeneouscluster (Xeon E5345 and Xeon 5405)<u></u><u></u></span></p></div></div><div><div class="h5"><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><span style="color:#1f497d">Also if it helps:<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><p class="MsoNormal"><span style="color:#1f497d">'A'<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><p class="MsoNormal"><span style="color:#1f497d">cat /proc/cpuinfo | grep flags | uniq<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d">flags           : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx lm constant_tsc arch_perfmon pebs bts rep_good aperfmperf pni dtes64 monitor ds_cpl vmx tm2 ssse3 cx16 xtpr pdcm dca sse4_1 lahf_lm dts tpr_shadow vnmi flexpriority<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><p class="MsoNormal"><span style="color:#1f497d">'B'<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><p class="MsoNormal"><span style="color:#1f497d">cat /proc/cpuinfo | grep flags | uniq<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d">flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall lm constant_tsc arch_perfmon pebs bts rep_good aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca lahf_lm dts tpr_shadow<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><p class="MsoNormal"><span style="color:#1f497d">I can already see ‘nx’ in there, which has got me wondering.<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><p class="MsoNormal"><span style="color:#1f497d">Thanks again.<u></u><u></u></span></p><p class="MsoNormal"><span style="color:#1f497d"><u></u> <u></u></span></p><div><div style="border:none;border-top:solid #b5c4df 1.0pt;padding:3.0pt 0cm 0cm 0cm"><p class="MsoNormal"><b><span lang="EN-US" style="font-size:10.0pt;font-family:"Tahoma","sans-serif"">From:</span></b><span lang="EN-US" style="font-size:10.0pt;font-family:"Tahoma","sans-serif""> pve-user [<a href="mailto:pve-user-bounces@pve.proxmox.com" target="_blank">mailto:pve-user-bounces@pve.proxmox.com</a>] <b>On Behalf Of </b>Chris Murray<br><b>Sent:</b> 05 September 2014 14:03<br><b>To:</b> <a href="mailto:pve-user@pve.proxmox.com" target="_blank">pve-user@pve.proxmox.com</a><br><b>Subject:</b> [PVE-User] 100% CPU usage after live migration on heterogeneouscluster (Xeon E5345 and Xeon 5405)<u></u><u></u></span></p></div></div><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Hi all,<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">I'm experiencing the same issue as the following post, but I can't register to ask if there was ever a solution as the Image Verification section of the registration page tells me "Input error: Invalid Referer"<u></u><u></u></p><p class="MsoNormal"><a href="http://188.165.151.221/threads/16171-PX-3-0-live-migration-(node-to-node)-freeze-VM-on-different-hardware" target="_blank">http://188.165.151.221/threads/16171-PX-3-0-live-migration-(node-to-node)-freeze-VM-on-different-hardware</a><u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">I'm on 3.2 and this particular cluster has two nodes. I'll call them 'A' and 'B'<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">'A' has an Intel Xeon E5405. <u></u><u></u></p><p class="MsoNormal">'B' has two Intel Xeon E5345 (the same as the post. Interestingly, the issue is in migrating *<b>to</b>* this node, as it is in the forum post)<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Start a VM on node B. <u></u><u></u></p><p class="MsoNormal">Migrate to A. <u></u><u></u></p><p class="MsoNormal">    This works fine.<u></u><u></u></p><p class="MsoNormal">Migrate to B.<u></u><u></u></p><p class="MsoNormal">    This is also fine.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Power down the VM, start it up from node A<u></u><u></u></p><p class="MsoNormal">Migrate to B. <u></u><u></u></p><p class="MsoNormal">    100% CPU. VM unresponsive.<u></u><u></u></p><p class="MsoNormal">Migrate to A:<u></u><u></u></p><p class="MsoNormal">    VM comes back to life again<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">I’m guessing this is related to the capability of the two CPUs being different. I've set the VM's CPU to Conroe (to oldest Xeon?) and qemu64, neither of which made any difference. It’s now back to the default of KVM64.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Any ideas?<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Thanks,<u></u><u></u></p><p class="MsoNormal">Chris<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Node 'A'<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">proxmox-ve-2.6.32: 3.2-136 (running kernel: 2.6.32-32-pve)<u></u><u></u></p><p class="MsoNormal">pve-manager: 3.2-30 (running version: 3.2-30/1d095287)<u></u><u></u></p><p class="MsoNormal">pve-kernel-2.6.32-32-pve: 2.6.32-136<u></u><u></u></p><p class="MsoNormal">pve-kernel-2.6.32-29-pve: 2.6.32-126<u></u><u></u></p><p class="MsoNormal">lvm2: 2.02.98-pve4<u></u><u></u></p><p class="MsoNormal">clvm: 2.02.98-pve4<u></u><u></u></p><p class="MsoNormal">corosync-pve: 1.4.7-1<u></u><u></u></p><p class="MsoNormal">openais-pve: 1.1.4-3<u></u><u></u></p><p class="MsoNormal">libqb0: 0.11.1-2<u></u><u></u></p><p class="MsoNormal">redhat-cluster-pve: 3.2.0-2<u></u><u></u></p><p class="MsoNormal">resource-agents-pve: 3.9.2-4<u></u><u></u></p><p class="MsoNormal">fence-agents-pve: 4.0.10-1<u></u><u></u></p><p class="MsoNormal">pve-cluster: 3.0-14<u></u><u></u></p><p class="MsoNormal">qemu-server: 3.1-34<u></u><u></u></p><p class="MsoNormal">pve-firmware: 1.1-3<u></u><u></u></p><p class="MsoNormal">libpve-common-perl: 3.0-19<u></u><u></u></p><p class="MsoNormal">libpve-access-control: 3.0-15<u></u><u></u></p><p class="MsoNormal">libpve-storage-perl: 3.0-22<u></u><u></u></p><p class="MsoNormal">pve-libspice-server1: 0.12.4-3<u></u><u></u></p><p class="MsoNormal">vncterm: 1.1-8<u></u><u></u></p><p class="MsoNormal">vzctl: 4.0-1pve6<u></u><u></u></p><p class="MsoNormal">vzprocps: 2.0.11-2<u></u><u></u></p><p class="MsoNormal">vzquota: 3.1-2<u></u><u></u></p><p class="MsoNormal">pve-qemu-kvm: 2.1-5<u></u><u></u></p><p class="MsoNormal">ksm-control-daemon: 1.1-1<u></u><u></u></p><p class="MsoNormal">glusterfs-client: 3.5.2-1<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Node 'B'<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">proxmox-ve-2.6.32: 3.2-136 (running kernel: 2.6.32-32-pve)<u></u><u></u></p><p class="MsoNormal">pve-manager: 3.2-30 (running version: 3.2-30/1d095287)<u></u><u></u></p><p class="MsoNormal">pve-kernel-2.6.32-32-pve: 2.6.32-136<u></u><u></u></p><p class="MsoNormal">pve-kernel-2.6.32-29-pve: 2.6.32-126<u></u><u></u></p><p class="MsoNormal">lvm2: 2.02.98-pve4<u></u><u></u></p><p class="MsoNormal">clvm: 2.02.98-pve4<u></u><u></u></p><p class="MsoNormal">corosync-pve: 1.4.7-1<u></u><u></u></p><p class="MsoNormal">openais-pve: 1.1.4-3<u></u><u></u></p><p class="MsoNormal">libqb0: 0.11.1-2<u></u><u></u></p><p class="MsoNormal">redhat-cluster-pve: 3.2.0-2<u></u><u></u></p><p class="MsoNormal">resource-agents-pve: 3.9.2-4<u></u><u></u></p><p class="MsoNormal">fence-agents-pve: 4.0.10-1<u></u><u></u></p><p class="MsoNormal">pve-cluster: 3.0-14<u></u><u></u></p><p class="MsoNormal">qemu-server: 3.1-34<u></u><u></u></p><p class="MsoNormal">pve-firmware: 1.1-3<u></u><u></u></p><p class="MsoNormal">libpve-common-perl: 3.0-19<u></u><u></u></p><p class="MsoNormal">libpve-access-control: 3.0-15<u></u><u></u></p><p class="MsoNormal">libpve-storage-perl: 3.0-22<u></u><u></u></p><p class="MsoNormal">pve-libspice-server1: 0.12.4-3<u></u><u></u></p><p class="MsoNormal">vncterm: 1.1-8<u></u><u></u></p><p class="MsoNormal">vzctl: 4.0-1pve6<u></u><u></u></p><p class="MsoNormal">vzprocps: 2.0.11-2<u></u><u></u></p><p class="MsoNormal">vzquota: 3.1-2<u></u><u></u></p><p class="MsoNormal">pve-qemu-kvm: 2.1-5<u></u><u></u></p><p class="MsoNormal">ksm-control-daemon: 1.1-1<u></u><u></u></p><p class="MsoNormal">glusterfs-client: 3.5.2-1<u></u><u></u></p></div></div></div></div><br>_______________________________________________<br>
pve-user mailing list<br>
<a href="mailto:pve-user@pve.proxmox.com">pve-user@pve.proxmox.com</a><br>
<a href="http://pve.proxmox.com/cgi-bin/mailman/listinfo/pve-user" target="_blank">http://pve.proxmox.com/cgi-bin/mailman/listinfo/pve-user</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br><div dir="ltr"><div>Obrigado</div><div><br></div><div>Cordialmente</div><div><br></div><div>Gilberto Ferreira</div><div><br><img src="https://encrypted-tbn2.gstatic.com/images?q=tbn:ANd9GcQh4Erzr4UMa0fHj33krlB24nJaqXvjEKtJVBebkpuLPh5HcWigtw"><br></div><div>Konnecta TI Tecnologia - Sistemas de Virtualização, Soluções de Armazenamento de Dados, Criação de SAN/NAS, Zimbra Mail Server, Implantação de Linux e Windows server.</div><div><br></div><div><font size="4"><b></b></font></div><div><font size="4">Fundação Softville</font></div><div><font size="4">Rua Otto Boehm, 48<br></font></div><div><br><div>(47) 9676-7530</div><div><p style="margin:0px"></p><p style="margin:0px">Skype: gilberto.nunes36</p><p style="margin:0px"><br></p><p style="margin:0px"><a href="http://www.konnectati.com.br/" target="_blank">www.konnectati.com.br</a></p><p style="margin:0px"><a href="http://blog.konnectati.com.br/" target="_blank">blog.konnectati.com.br</a></p></div></div></div>
</div>