<div dir="ltr">Hi all,<div><br></div><div>During some more tests with this feature i (maybe) stumbled on a bug (or maybe this was by design).</div><div><br></div><div>When I select the migrate-all button and set the "parallel jobs" option to 1 i noticed the HA managed VM's were migrated at the same time (so it looks like the parallel jobs option is ignored).</div><div>But i found out why this is:</div><div><br></div><div>When a HA managed VM is migrated a "HA <vmid> - Migrate" task is spawned. This task returns an OK status way BEFORE the actual migration has taken place. The "HA <vmid> - Migrate" task spawns another task which does the actual migration called "VM <vmid> - Migrate".</div><div><br></div><div>Now I remember from PVE 3.4 that the "HA <vmid> - Migrate" task did not return an OK until the actual "VM <vmid> - Migrate" returned an OK. Was this changed on purpose or is this a bug?</div><div><br></div><div>The result here is that the migrate-all task receives an OK (from the HA task) and starts the next migration resulting in multiple HA migrations happen at once.</div><div><br></div><div class="gmail_extra"><div><div class="gmail_signature"><div dir="ltr">Kind regards,<br>Caspar<br></div><div dir="ltr"><br></div></div></div><div class="gmail_quote">2016-03-14 12:07 GMT+01:00 Caspar Smit <span dir="ltr"><<a href="mailto:casparsmit@supernas.eu" target="_blank">casparsmit@supernas.eu</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Signed-off-by: Caspar Smit <<a href="mailto:casparsmit@supernas.eu">casparsmit@supernas.eu</a>><br>
---<br>
 PVE/API2/Nodes.pm | 9 ++++++---<br>
 1 file changed, 6 insertions(+), 3 deletions(-)<br>
<br>
diff --git a/PVE/API2/Nodes.pm b/PVE/API2/Nodes.pm<br>
index f1fb392..b2de907 100644<br>
--- a/PVE/API2/Nodes.pm<br>
+++ b/PVE/API2/Nodes.pm<br>
@@ -1208,9 +1208,6 @@ my $get_start_stop_list = sub {<br>
                $startup = { order => $bootorder };<br>
            }<br>
<br>
-           # skip ha managed VMs (started by pve-ha-manager)<br>
-           return if PVE::HA::Config::vm_is_ha_managed($vmid);<br>
-<br>
            $resList->{$startup->{order}}->{$vmid} = $startup;<br>
            $resList->{$startup->{order}}->{$vmid}->{type} = $d->{type};<br>
        };<br>
@@ -1283,6 +1280,9 @@ __PACKAGE__->register_method ({<br>
                        die "unknown VM type '$d->{type}'\n";<br>
                    }<br>
<br>
+                   # skip ha managed VMs (started by pve-ha-manager)<br>
+                   next if PVE::HA::Config::vm_is_ha_managed($vmid);<br>
+<br>
                    PVE::Cluster::check_cfs_quorum(); # abort when we loose quorum<br>
<br>
                    eval {<br>
@@ -1407,6 +1407,9 @@ __PACKAGE__->register_method ({<br>
                };<br>
<br>
                foreach my $vmid (sort {$b <=> $a} keys %$vmlist) {<br>
+                   # skip ha managed VMs (stopped by pve-ha-manager)<br>
+                   next if PVE::HA::Config::vm_is_ha_managed($vmid);<br>
+<br>
                    my $d = $vmlist->{$vmid};<br>
                    my $upid;<br>
                    eval { $upid = &$create_stop_worker($nodename, $d->{type}, $vmid, $d->{down}); };<br>
<span class="HOEnZb"><font color="#888888">--<br>
2.1.4<br>
<br>
</font></span></blockquote></div><br></div></div>