<html>
  <head>

    <meta http-equiv="content-type" content="text/html; charset=utf-8">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    Hi,<br>
    <br>
    I have tried to live-migrate storage from local storage in another
    node in the same cluster, to the same NFS export, and it doesn't
    work either:<br>
    <br>
    create full clone of drive virtio0 (local:103/vm-103-disk-1.raw)<br>
    trying to aquire cfs lock 'storage-nfs1' ... OK<br>
    Formatting '/mnt/pve/nfs1/images/103/vm-103-disk-1.raw', fmt=raw
    size=53687091200 <br>
    transferred: 0 bytes remaining: 53687091200 bytes total: 53687091200
    bytes progression: 0.00 %<br>
    transferred: 41943040 bytes remaining: 53645148160 bytes total:
    53687091200 bytes progression: 0.08 %<br>
    transferred: 83886080 bytes remaining: 53603205120 bytes total:
    53687091200 bytes progression: 0.16 %<br>
    transferred: 136314880 bytes remaining: 53550776320 bytes total:
    53687091200 bytes progression: 0.25 %<br>
    transferred: 188743680 bytes remaining: 53498347520 bytes total:
    53687091200 bytes progression: 0.35 %<br>
    [...]<br>
    transferred: 53606481920 bytes remaining: 80609280 bytes total:
    53687091200 bytes progression: 99.85 %<br>
    transferred: 53648424960 bytes remaining: 38666240 bytes total:
    53687091200 bytes progression: 99.93 %<br>
    transferred: 53680340992 bytes remaining: 6750208 bytes total:
    53687091200 bytes progression: 99.99 %<br>
    transferred: 53687091200 bytes remaining: 0 bytes total: 53687091200
    bytes progression: 100.00 %<br>
    TASK ERROR: storage migration failed: mirroring error: VM 103 qmp
    command 'block-job-complete' failed - The active block job for
    device 'drive-virtio0' cannot be completed<br>
    ---<br>
    <div class="moz-forward-container"><br>
      VM has latest virtio drivers for Windows (81)<br>
      <br>
      -------- Forwarded Message --------
      <table class="moz-email-headers-table" border="0" cellpadding="0"
        cellspacing="0">
        <tbody>
          <tr>
            <th align="RIGHT" nowrap="nowrap" valign="BASELINE">Subject:
            </th>
            <td>Storage migration</td>
          </tr>
          <tr>
            <th align="RIGHT" nowrap="nowrap" valign="BASELINE">Date: </th>
            <td>Wed, 08 Oct 2014 14:17:42 +0200</td>
          </tr>
          <tr>
            <th align="RIGHT" nowrap="nowrap" valign="BASELINE">From: </th>
            <td>Eneko Lacunza <a class="moz-txt-link-rfc2396E" href="mailto:elacunza@binovo.es"><elacunza@binovo.es></a></td>
          </tr>
          <tr>
            <th align="RIGHT" nowrap="nowrap" valign="BASELINE">To: </th>
            <td><a class="moz-txt-link-abbreviated" href="mailto:pve-user@pve.proxmox.com">pve-user@pve.proxmox.com</a></td>
          </tr>
        </tbody>
      </table>
      <br>
      <br>
      <pre>Hi all,

I've found some problems with storage migration with the recent 3.3 
versión, vanilla as it is in ISO and also after updating from 
pve-non-subscription.

I have a WS2012R2 with virtio block device in local storage. Local 
storage (var/lib/vz) and NFS storage (srv/nfs) are on the same machine.
- Moving disk to a NFS shared storage with VM off works OK.
- Moving disk to a NFS shared storage with VM on doesn't work. First try 
reports:
---
create full clone of drive virtio0 (local:100/vm-100-disk-1.raw)
Formatting '/mnt/pve/nfs1/images/100/vm-100-disk-2.raw', fmt=raw size=0
transferred: 0 bytes remaining: 53687091200 bytes total: 53687091200 
bytes progression: 0.00 %
TASK ERROR: storage migration failed: mirroring error: mirroring job 
seem to have die. Maybe do you have bad sectors? at 
/usr/share/perl5/PVE/QemuServer.pm line 5170.
---
After re-trying:
---
create full clone of drive virtio0 (local:100/vm-100-disk-1.raw)
Formatting '/mnt/pve/nfs1/images/100/vm-100-disk-2.raw', fmt=raw 
size=53687091200
transferred: 0 bytes remaining: 53687091200 bytes total: 53687091200 
bytes progression: 0.00 %
transferred: 104857600 bytes remaining: 53582233600 bytes total: 
53687091200 bytes progression: 0.20 %
transferred: 125829120 bytes remaining: 53561262080 bytes total: 
53687091200 bytes progression: 0.23 %
transferred: 125829120 bytes remaining: 53561262080 bytes total: 
53687091200 bytes progression: 0.23 %
transferred: 125829120 bytes remaining: 53561262080 bytes total: 
53687091200 bytes progression: 0.23 %
transferred: 125829120 bytes remaining: 53561262080 bytes total: 
53687091200 bytes progression: 0.23 %
transferred: 125829120 bytes remaining: 53561262080 bytes total: 
53687091200 bytes progression: 0.23 %
transferred: 125829120 bytes remaining: 53561262080 bytes total: 
53687091200 bytes progression: 0.23 %
transferred: 125829120 bytes remaining: 53561262080 bytes total: 
53687091200 bytes progression: 0.23 %
transferred: 125829120 bytes remaining: 53561262080 bytes total: 
53687091200 bytes progression: 0.23 %
transferred: 125829120 bytes remaining: 53561262080 bytes total: 
53687091200 bytes progression: 0.23 %
transferred: 125829120 bytes remaining: 53561262080 bytes total: 
53687091200 bytes progression: 0.23 %
[...]
---
Usually the % is different, but very low (<1%)

There are no hard disk errors in dmesg/syslog.

I have also found apparently slightly different issues migrating from 
NFS to RBD, and from RBD to NFS.

Cheers
Eneko

-- 
Zuzendari Teknikoa / Director Técnico
Binovo IT Human Project, S.L.
Telf. 943575997
      943493611
Astigarraga bidea 2, planta 6 dcha., ofi. 3-2; 20180 Oiartzun (Gipuzkoa)
<a class="moz-txt-link-abbreviated" href="http://www.binovo.es">www.binovo.es</a>

</pre>
      <br>
    </div>
    <br>
  </body>
</html>