diumenge, 6 d’agost del 2017

proxmox montar recurs lxc a l'arrancada

sobre la proxmox montar en un directore

 mount -t nfs 192.168.1.250:/mnt/externovolumen /mnt/bindmounts/shared/

al contenidor lxc 167

pct set 167 -mp0 /mnt/bindmounts/shared/,mp=shared

pct start 167
pct enter 167

root@moodle2ubu16remote:~# mount|grep shared
192.168.1.250:/mnt/externovolumen on /shared type nfs (rw,relatime,vers=3,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.1.250,mountvers=3,mountport=740,mountproto=udp,local_lock=none,addr=192.168.1.250)


root@moodle2ubu16remote:~# cd /shared/
root@moodle2ubu16remote:/shared# ls
hola  servidorweb


si no està montat al servidor proxmox, en el moment que estigui montat ja està accesible

recomanacions o advertència

The contents of device mount points are not backed up when using vzdump.


dilluns, 24 de juliol del 2017

rsync port diferent 22

necessito fer rsync en un port diferent del 22

rsync -avz vzdump-qemu-206-2017_06_27-19_01_53.vma.lzo -e "ssh -p 2201" root@88.88.88.88:/mnt/backup

s'ha d'incloure la opció -e "ssh -p 2201" per indicar el port

he d'enviar un fitxer de 200Gigues i només puc fer-ho per la nit, pel matí afecta a la navegació de la casa, llavors durant 4 nits s'anirà pujant.....  donat que recorda el punt on es va quedar en la transferència


dimarts, 27 de juny del 2017

template lxc para proxmox

descargar de

http://download.proxmox.com/images/system/

debian-9.0-standard_9.0-2_amd64.tar.gz

dissabte, 24 de juny del 2017

error 0xc0000000e arrancada windows 10

després de la creació del disc ssd en gpt i veure que aquesta imatge em serviria per les instal·lacions en les màquines i5 pero no en els cores, donat que no té efi per 'entendre l'arrancada' he tingut que fer:


  1. pas amb easeus partition de conversió del disc gpt a mbr, he utilitzat aquesta eina donat que preserva les dades 
  2. bcdedit /export     per guarda l'arrancada
  3. ren c:/boot/bcd bcd.old
  4. bootrec /rebuilbcd


altres coses he provat pero finalment aquest ha estat la  recepta funcional


diumenge, 18 de juny del 2017

zentyal , després de reiniciar un servei executar regles post-iptables

per que una classe determinada tingui unes regles personalitzades en reiniciar el servei de firewall, d'aquesta manera permetem l'accés a steam d'aquesta aula, necessari per un projecte.

/etc/zentyal/hooks/firewall.postservice

#!/bin/bash
#iptables -t nat -I premodules 1 -s 10.1.6.0/24 -p tcp -m tcp --dport 80 -j ACCEPT
#https://support.steampowered.com/kb_article.php?ref=8571-GLVN-8711
#LOG TO STEAM
iptables -I FORWARD 1 -s 10.1.6.0/24 -p tcp --dport 27015:27030 -j ACCEPT
iptables -I FORWARD 1 -s 10.1.6.0/24 -p udp  --dport 27015:27030 -j ACCEPT
#STEAM CLIENT
iptables -I FORWARD 1 -s 10.1.6.0/24 -p tcp  --dport 27036:27037 -j ACCEPT
iptables -I FORWARD 1 -s 10.1.6.0/24 -p udp  --dport 27000:27036 -j ACCEPT
iptables -I FORWARD 1 -s 10.1.6.0/24 -p udp  --dport 4380 -j ACCEPT
#LITEN SERVERS
iptables -I FORWARD 1 -s 10.1.6.0/24 -p tcp  --dport 27015 -j ACCEPT
#STEAMWORK SP2P
iptables -I FORWARD 1 -s 10.1.6.0/24 -p udp  --dport 3478 -j ACCEPT
iptables -I FORWARD 1 -s 10.1.6.0/24 -p udp  --dport 4379:4380 -j ACCEPT

proxmox, montar en lxc un recurs nfs

On the proxmox host

add

mount fstype=nfs,

to


/etc/apparmor.d/lxc/lxc-default-with-mounting

then reload apparmor
service apparmor reload

dimecres, 14 de juny del 2017

problemas drbd

Drbd-problema   no aconsegueixo el primary/secondary

drbroot@drbd0heartbeat:~# drbd-overview
0:r0/0  StandAlone Secondary/Unknown UpToDate/DUnknown

root@drbd1heartbeat:~# drbd-overview
0:r0/0  WFConnection Primary/Unknown UpToDate/DUnknown /var/lib/mysql ext4 32G 6.7G 24G 23%

Canvi ordre d’arrancada, reinicio només un d'ells

root@drbd0heartbeat:~# drbd-overview
0:r0/0  StandAlone Primary/Unknown UpToDate/DUnknown /var/lib/mysql ext4 32G 6.6G 24G 23%

ot@drbd1heartbeat:~# drbd-overview
0:r0/0  WFConnection Secondary/Unknown UpToDate/DUnknown

Split brain

root@drbd0heartbeat:~# grep split /var/log/syslog
Jun 14 16:51:58 drbd0heartbeat kernel: [    6.652069] block drbd0: helper command: /sbin/drbdadm initial-split-brain minor-0
Jun 14 16:51:58 drbd0heartbeat kernel: [    6.653058] block drbd0: helper command: /sbin/drbdadm initial-split-brain minor-0 exit code 0 (0x0)
Jun 14 16:51:58 drbd0heartbeat kernel: [    6.653204] block drbd0: helper command: /sbin/drbdadm split-brain minor-0
Jun 14 16:51:58 drbd0heartbeat kernel: [    6.654109] block drbd0: helper command: /sbin/drbdadm split-brain minor-0 exit code 0 (0x0)
Jun 14 16:54:25 drbd0heartbeat kernel: [    6.708203] block drbd0: helper command: /sbin/drbdadm initial-split-brain minor-0
Jun 14 16:54:25 drbd0heartbeat kernel: [    6.709194] block drbd0: helper command: /sbin/drbdadm initial-split-brain minor-0 exit code 0 (0x0)
Jun 14 16:54:25 drbd0heartbeat kernel: [    6.709339] block drbd0: helper command: /sbin/drbdadm split-brain minor-0
Jun 14 16:54:25 drbd0heartbeat kernel: [    6.710279] block drbd0: helper command: /sbin/drbdadm split-brain minor-0 exit code 0 (0x0)
Jun 14 16:59:15 drbd0heartbeat kernel: [  295.508074] block drbd0: helper command: /sbin/drbdadm initial-split-brain minor-0
Jun 14 16:59:15 drbd0heartbeat kernel: [  295.509099] block drbd0: helper command: /sbin/drbdadm initial-split-brain minor-0 exit code 0 (0x0)
Jun 14 16:59:15 drbd0heartbeat kernel: [  295.509244] block drbd0: helper command: /sbin/drbdadm split-brain minor-0
Jun 14 16:59:15 drbd0heartbeat kernel: [  295.510053] block drbd0: helper command: /sbin/drbdadm split-brain minor-0 exit code 0 (0x0)


he probat com diu un enllaç
primary- service mysql stop
secondary drbdadm connect all
secondary cat /proc/drbd
primary  drbdadm connect all
primary cat /proc/drbd
primary service mysql start

no ha estat suficient pq entre a funciona , 

AL FINAL HA ESTAT CONTUNDENT - solució
Try following:
On primary node
root@drbd0heartbeat:~# drbdadm connect all
On secondary node

ot@drbd1heartbeat:~# drbdadm -- --discard-my-data connect all
root@drbd1heartbeat:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
0: cs:SyncTarget ro:Secondary/Primary ds:Inconsistent/UpToDate C r-----
    ns:0 nr:58384 dw:58384 dr:0 al:0 bm:7 lo:1 pe:4 ua:0 ap:0 ep:1 wo:f oos:2611068
       [>....................] sync'ed:  2.4% (2611068/2669452)K
       finish: 0:00:44 speed: 58,384 (58,384) want: 43,000 K/sec

dilluns, 22 de maig del 2017

configuració drbd9 en debian8

basat en el següent article

https://www.globo.tech/learning-center/setup-drbd-9-ubuntu-16/

CONDICIÓ D'INICI
2 maquines debian8
1 disc /dev/sdb1 secundari per montar el drbd

afegir als dos servidors el reconeixement per nom

root@drbd1:~# more /etc/hosts
127.0.0.1       localhost
# 127.0.1.1      drbd1.ies-sabadell.cat  drbd1
192.168.0.180   drbd0.ies.cat  drbd0
192.168.0.181   drbd1.ies.cat  drbd1

INSTAL·LAR
apt-get update
sudo apt-get install -y drbd8-utils

ACONSEGUIR LA SINCRONITZACIÓ DE TEMPS

apt-get install -y ntp

creació d'una partició del mateix tamany a les dos màquines 

fdisk /dev/sdb
n   nova partició
p primaria

w write canvis


dd if=/dev/zero of=/dev/sdb1

als dos servidors també creem el recurs r0 associat a la partició creada i tot al fitxer /etc/drbd.conf

root@drbd1:~# more /etc/drbd.conf
# You can find an example in  /usr/share/doc/drbd.../drbd.conf.example

# include "drbd.d/global_common.conf";
# include "drbd.d/*.res";

global { usage-count no; }
common { protocol C; }

resource r0 {
on drbd1 {
device /dev/drbd0;
disk /dev/sdb1;
address 192.168.0.181:7788;
meta-disk internal;
}

on drbd0 {
device /dev/drbd0;
disk /dev/sdb1;
address 192.168.0.180:7788;
meta-disk internal;
}

}

carregar el modul 
modprobe drbd
crear el dispositiu mirror
drbdadm create-md r0
Then simply bring the mirror device online with this command.
drbdadm up r0
Per veure l'estat del drbd
drbd-overview cat /etc/drbd
els dos nodes son inicialment secundaris o pasius. Forçar un d'ells a ser primary
drbdadm -- --overwrite-data-of-peer primary r0/0
Finalment formatejar i montar la unitat de disc
sudo mkfs.ext4 /dev/drbd0
sudo mkdir -p /var/www/html
sudo mount /dev/drbd0 /var/www/html
In order to upgrade, do the following:
apt install software-properties-common
then
sudo add-apt-repository ppa:linbit/linbit-drbd9-stack
Finally, perform apt-get update so that Debian will recognize the updated repository. After that, you can run the apt-get upgrade to upgrade DRBD to version 9.
apt-get update
apt-get upgrade

No he aconseguir passar a la versió 9, no em troba drbd per la debian
aquest és l'error

W: No s'ha pogut obtenir http://ppa.launchpad.net/linbit/linbit-drbd9-stack/ubuntu/dists/jessie/main/binary-amd64/Packages  404  Not Found

root@drbd1:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:Connected ro:Secondary/Primary ds:UpToDate/UpToDate C r-----
    ns:0 nr:851152 dw:34403500 dr:0 al:0 bm:286 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0


SI PARO ARA drbd0

root@drbd1:~# drbd-overview cat /etc/drbd
 0:r0/0  WFConnection Secondary/Unknown UpToDate/DUnknown
root@drbd1:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:WFConnection ro:Secondary/Unknown ds:UpToDate/DUnknown C r-----
    ns:0 nr:851152 dw:34403500 dr:0 al:0 bm:286 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0


SI TORNO A ENCENDRE drbd0
els dos en secundary fins que sincronitzi

root@drbd1:~# drbd-overview cat /etc/drbd
 0:r0/0  SyncTarget Secondary/Secondary Inconsistent/UpToDate
        [>....................] sync'ed:  0.1% (4944/4944)Mfinish: 0:52:44 speed: 1,260 (1,260) want: 1,360 K/sec
root@drbd1:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:SyncTarget ro:Secondary/Secondary ds:Inconsistent/UpToDate C r-----
    ns:0 nr:857404 dw:34409752 dr:0 al:0 bm:286 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:5058416
        [>....................] sync'ed:  0.3% (4936/4944)Mfinish: 0:39:31 speed: 2,084 (2,084) want: 3,040 K/sec
root@drbd1:~#

continua
root@drbd1:~# drbd-overview cat /etc/drbd
 0:r0/0  SyncTarget Secondary/Secondary Inconsistent/UpToDate
        [============>.......] sync'ed: 65.9% (1688/4944)Mfinish: 0:00:49 speed: 34,856 (25,460) want: 36,920 K/sec
root@drbd1:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:SyncTarget ro:Secondary/Secondary ds:Inconsistent/UpToDate C r-----
    ns:0 nr:4262360 dw:37814708 dr:0 al:0 bm:511 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:1653460
        [============>.......] sync'ed: 67.5% (1612/4944)Mfinish: 0:00:46 speed: 35,064 (25,648) want: 38,520 K/sec

se disparó consumo de red y uso de disco

root@drbd1:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:Connected ro:Secondary/Secondary ds:UpToDate/UpToDate C r-----
    ns:0 nr:5915820 dw:39468168 dr:0 al:0 bm:613 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0

root@drbd1:~# drbd-overview cat /etc/drbd
 0:r0/0  Connected Secondary/Secondary UpToDate/UpToDate

MISSATGES DEL SYSLOG

May 22 00:14:48 drbd1 kernel: [83618.112489] block drbd0: helper command: /sbin/drbdadm before-resync-target minor-0
May 22 00:14:48 drbd1 kernel: [83618.113577] block drbd0: helper command: /sbin/drbdadm before-resync-target minor-0 exit code 0 (0x0)
May 22 00:14:48 drbd1 kernel: [83618.113586] block drbd0: conn( WFSyncUUID -> SyncTarget ) disk( Outdated -> Inconsistent )
May 22 00:14:48 drbd1 kernel: [83618.113591] block drbd0: Began resync as SyncTarget (will sync 5064668 KB [1266167 bits set]).
May 22 00:17:01 drbd1 CRON[2464]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
May 22 00:17:49 drbd1 kernel: [83800.029781] block drbd0: Resync done (total 181 sec; paused 0 sec; 27980 K/sec)
May 22 00:17:49 drbd1 kernel: [83800.029787] block drbd0: updated UUIDs 716CEB055F69D08C:0000000000000000:82078DA323F1657E:82068DA323F1657F
May 22 00:17:49 drbd1 kernel: [83800.029792] block drbd0: conn( SyncTarget -> Connected ) disk( Inconsistent -> UpToDate )
May 22 00:17:49 drbd1 kernel: [83800.030037] block drbd0: helper command: /sbin/drbdadm after-resync-target minor-0
May 22 00:17:49 drbd1 kernel: [83800.031152] block drbd0: helper command: /sbin/drbdadm after-resync-target minor-0 exit code 0 (0x0)


FINALMENT HE TINGUT QUE FER
root@drbd0:~# mount /dev/drbd0 /var/www/html
mount: /dev/drbd0 is write-protected, mounting read-only
mount: mount /dev/drbd0 on /var/www/html failed: El tipus de mitjà  no és và lid
root@drbd0:~# drbdadm -- --overwrite-data-of-peer primary r0

POSAR DRBD0 COM A PRIMARY
root@drbd0:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r-----
    ns:5064668 nr:0 dw:0 dr:5066084 al:0 bm:327 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0
root@drbd0:~# mount /dev/drbd0 /var/www/html


ja ho puc montar , miro en drbd1
root@drbd1:/var# mount /dev/drbd0 /var/www/html
mount: /dev/drbd0 is write-protected, mounting read-only
mount: mount /dev/drbd0 on /var/www/html failed: El tipus de mitjà  no és và lid


com es secondary, només de lectura.


EL SEGÜENT ARTICLE SERÀ , sobre el drbd montarem una ip flotant amb heartbeat
https://www.globo.tech/learning-center/high-availability-heartbeat-drbd-ubuntu-16/







diumenge, 21 de maig del 2017

entrar via ssh sin contraseña (clave publica autorizada)

Generant la clau en parella publica privada

ssh-keygen -t rsa

genera dos fitxers
  • Clau privada: ~/.ssh/id_rsa
  • Clau publica: ~/.ssh/id_rsa.pub
afegir la clau generada al servidor
jo abans la renombre
mv id_rsa.pub publicaservidor1.pub

ho envien a l'altre ordinador

scp publicaservidor1.pub @:/home//.ssh/

finalment 

dintre de la carpeta .ssh creació del document authorized_keys y le afegim el contingut de ll'arxiu amb la clau pública:
touch authorized_keys
cat id_rsa.pub >> authorized_keys

divendres, 19 de maig del 2017

renovació certificat letsencrypt


 l'Únic a fer cada 3 messos


root@frontal:/opt/letsencrypt# ./certbot-auto renew
Upgrading certbot-auto 0.8.1 to 0.14.1...
Replacing certbot-auto...
Creating virtual environment...
Installing Python packages...
Installation succeeded.
Saving debug log to /var/log/letsencrypt/letsencrypt.log

-------------------------------------------------------------------------------
Processing /etc/letsencrypt/renewal/frontal.ies-sa......cat.conf
-------------------------------------------------------------------------------
Cert is due for renewal, auto-renewing...
Renewing an existing certificate
Performing the following challenges:
tls-sni-01 challenge for frontal.ies-sa......cat
tls-sni-01 challenge for frontal.institutsa......cat
Waiting for verification...

Cleaning up challenges

-------------------------------------------------------------------------------
new certificate deployed with reload of apache server; fullchain is
/etc/letsencrypt/live/frontal.ies-sabadell.cat/fullchain.pem
-------------------------------------------------------------------------------

Congratulations, all renewals succeeded. The following certs have been renewed:
  /etc/letsencrypt/live/frontal.ies-sa......cat/fullchain.pem (success)

dijous, 18 de maig del 2017

poti-poti-bash_history del proxmox

lvdisplay
lvdisplay vpe
lvdisplay pve
fdisk -l
pvdisplay
pvscan
vgdisplay
vgscan
pvdisplay
pvdisplay
lvscan
lvdisplay
vgs
vgscan
pvs
pvscan
lvs
lvscan
pvdisplay /dev/sda3
pvdisplay /dev/sda1
pvdisplay /dev/sda2


pvesm lvmthinscan pve
pvesm lvmthinscan
lvgdisplay
vgscan
pvesm lvmthinscan vmdata


pvs
pvs -o
pvs --all

pvdisplay
pvscan
lvscan
vgscan
vgbackup -nombrebackupvg -vmdata
vgcfbackup -nombrebackupvg -vmdata
vgcfgbackup -nombrebackupvg -vmdata
vgcfgbackup -f -nombrebackupvg -vmdata
vgcfgbackup -f nombrebackupvg vmdata
ls
mv nombrebackupvg -root
mv nombrebackupvg /root
more /root/nombrebackupvg

lvs -a
lvextend -L+256M vmdata/vmstore
lvs -a
lvconvert --repair
lvextend -L+256M vmdata/vmstore_tmeta
lvs
lvs -a
lvextend -L+256M vmdata/vmstore_tmeta
lvs -a
lvextend -L+256M vmdata/vmstore_tmeta
lvs -a
tail -f /var/log/syslog
dmesg
dmesg
tail -f /var/log/syslog
dmesg
iostat
iostat 'x
pvdisplay
pvdisplay /dev/sda3
pvdisplay /dev/sda1
pvdisplay /dev/sdb1
ls
qmrestore vzdump-qemu-206-2017_04_29-09_17_22.vma.lzo 206 --storage local-raid

pct restore 100 vzdump-lxc-100-2017_04_29-06_15_01.tar.lzo --storage local-lvm
dmesg
tail -f /var/log/syslog
pct restore 100 vzdump-lxc-100-2017_04_29-06_15_01.tar.lzo --storage local-lvm
dmesg
tail -f /var/log/syslog
pct enter 100
dmesg
tial -f /var/log/syslog
tail -f /var/log/syslog
dmesg
lvs
htop
glances
dmesg
tail -f /var/log/syslog

ls
pct restore 210 vzdump-lxc-21 --storage local-lvm
qmrestore vzdump-qemu-210-2017_04_29-19_09_48.vma.lzo 210 --storage local-lvm

pct restore 118 vzdump-lxc-117-2017_05_06-07_51_01.tar.lzo --storage local-raid

qmrestore vzdump-qemu-208-2017_04_29-12_10_27.vma.lzo 208 --storage local-raid

root@hp350:/mnt/backup/montado226# pvesm status
backup-hd2T    dir 1      1922728752       201530796      1623505900 11.54%
local          dir 1        71859544         3774324        64411928 6.04%
local-lvm    lvmthin 1       194502656       140275315        54227340 72.62%
local-raid   lvmthin 1      1866727424       399292995      1467434428 21.89%
nfs3228        nfs 1      1922860032      1242675712       582508544 68.58%
wd-0154        nfs 1      1914457536      1455644032       439345984 77.32%

Conversión de Contenedores OpenVZ a LXC

http://nihilanthlnxc.cubava.cu/2016/01/07/de-mi-manual-de-proxmox-ve-4-x-conversion-de-contenedores-openvz-a-lxc/

En otras palabras, los pasos se resumen de la siguiente manera:
En el Hipervisor Proxmox VE 3.x
  1. Fijarse bien en la configuración de los parámetros de la red del contenedor a migrar (esto es fundamental en el momento de la restauración en el nuevo hipervisor) y anotarla en algún lugar para su uso posterior
  2. Realizar una salva o respaldo del contenedor OpenVZ

En el Hipervisor Proxmox VE 4.x

  1. Crear un contenedor LXC a partir del respaldo del contenedor OpenVZ (previamente copiado en el nuevo hipervisor)
  2. Configurar los parámetros de la red del contenedor con los valores que tenía (tomados del paso 1)
  3. Encender el contenedor y revisar que todo esté correctamente
primer a proxmox 3 - 
root@proxmox1:~# vzlist
      CTID      NPROC STATUS    IP_ADDR         HOSTNAME
       100         52 running      deb7-CACTI.ies-sabadell.cat
       104         41 running   IP   users.ies-sabadell.cat
       105          9 running   -               enrutador-links.ies-sabadell
       106         52 running   3   hermes.ies-sabadell.cat
       107         
       108         71 running   IP   frontal.ies-sabadell.cat
       109         66 running      cisco.ies-sabadell.cat
       114         
       116         29 running      dns.ies-sabadell.cat
      

root@proxmox1:~# vzlist 108
      CTID      NPROC STATUS    IP_ADDR         HOSTNAME
       108         79 running   192.168.   frontal.ies-sabadell.cat

vzctl stop 100 && vzdump 100 --remove 0 --mode stop --compress gzip --storage samba155

lo envio al otro servidor

scp /var/lib/vz/dump/vzdump-openvz-110-2015_12_29-00_04_09.tar.gz root@prx4-c0-1-drbd8:/var/lib/vz/dump

en otro proxmox4 
root@hp350:~# pvesm status
backup-hd2T    dir 1      1922728752       201530792      1623505904 11.54%
local          dir 1        71859544         3819736        64366516 6.10%
local-lvm    lvmthin 1       194502656       139769608        54733047 72.36%
local-raid   lvmthin 1      1866727424       398919650      1467807773 21.87%
nfs3228        nfs 1      1922860032      1240326656       584857600 68.46%
wd-0154        nfs 1      1914457536      1451688896       443301184 77.11%

pct restore 118 vzdump-lxc-117-2017_05_06-07_51_01.tar.lzo --storage local-raid

o

pct restore 110 /var/lib/vz/dump/vzdump-openvz-110-2015_12_29-00_04_09.tar.gz

finalment queda configurar la xarxa

Pero estos nuevos contenedores tienen un problema: no tienen configuración de red establecida. Sí, todos los contendores, cuando se va a la pestaña “Network” se ve que no tiene configuración establecida:
148 - Gestor de Proxmox VE - CT LXC 110 - Red No Configurada
Lo que queda es configurar la red de los contenedores LXC recientemente restaurados con los valores originales que se recopilaron al principio de todo este proceso.
Añadir la configuración de red a los contenedores LXC basada en las configuraciones originales
Como elemento a destacar, los conentedores LXC utilizan por defecto (y como única opción) adaptadores de red virtuales los cuales se pueden asociar a los bridges configurados en el nodo Proxmox VE. En otras palabras, usan el modelo veth únicamente, lo cual es muy bueno porque se puede controlar el acceso utilizando el cortafuegos de Proxmox VE.
Entonces, configurar la red de los contenedores LXC se puede hacer de dos maneras: a través de la WebGUI o a través de la CLI.
En caso de hacerlo por la WebGUI (por ejemplo, el CT LXC 110):
149 - Gestor de Proxmox VE - CT LXC 110 - Configuración de la Red - Interfaz veth
150 - Gestor de Proxmox VE - CT LXC 110 - Red Configurada - IP 10.0.1.27, CIDR 28
En caso de hacerlo por la CLI o Shell de Proxmox VE (por ejemplo, el CT LXC 111):

root@prx4-c0-1-drbd8:~# pct set 111 -net0 name=eth0,bridge=vmbr0,ip=10.0.1.28/28,gw=10.0.1.17

root@prx4-c0-1-drbd8:~#
Y así se completa casi todo el proceso de conversión de contenedores OpenVZ de un hipervisor Proxmox VE 3.x a contenedores LXC en un hipervisor Proxmox VE 4.x.
 



finalment arrancar contenidors
root@prx4-c0-1-drbd8:~# pct start 118

RECORDEU EN LES CLONACIONS SI LA MAC VA DUPLICADA ' AL TANTO ' 

pct enter 118