dilluns, 22 de maig del 2017

configuració drbd9 en debian8

basat en el següent article

https://www.globo.tech/learning-center/setup-drbd-9-ubuntu-16/

CONDICIÓ D'INICI
2 maquines debian8
1 disc /dev/sdb1 secundari per montar el drbd

afegir als dos servidors el reconeixement per nom

root@drbd1:~# more /etc/hosts
127.0.0.1       localhost
# 127.0.1.1      drbd1.ies-sabadell.cat  drbd1
192.168.0.180   drbd0.ies.cat  drbd0
192.168.0.181   drbd1.ies.cat  drbd1

INSTAL·LAR
apt-get update
sudo apt-get install -y drbd8-utils

ACONSEGUIR LA SINCRONITZACIÓ DE TEMPS

apt-get install -y ntp

creació d'una partició del mateix tamany a les dos màquines 

fdisk /dev/sdb
n   nova partició
p primaria

w write canvis


dd if=/dev/zero of=/dev/sdb1

als dos servidors també creem el recurs r0 associat a la partició creada i tot al fitxer /etc/drbd.conf

root@drbd1:~# more /etc/drbd.conf
# You can find an example in  /usr/share/doc/drbd.../drbd.conf.example

# include "drbd.d/global_common.conf";
# include "drbd.d/*.res";

global { usage-count no; }
common { protocol C; }

resource r0 {
on drbd1 {
device /dev/drbd0;
disk /dev/sdb1;
address 192.168.0.181:7788;
meta-disk internal;
}

on drbd0 {
device /dev/drbd0;
disk /dev/sdb1;
address 192.168.0.180:7788;
meta-disk internal;
}

}

carregar el modul 
modprobe drbd
crear el dispositiu mirror
drbdadm create-md r0
Then simply bring the mirror device online with this command.
drbdadm up r0
Per veure l'estat del drbd
drbd-overview cat /etc/drbd
els dos nodes son inicialment secundaris o pasius. Forçar un d'ells a ser primary
drbdadm -- --overwrite-data-of-peer primary r0/0
Finalment formatejar i montar la unitat de disc
sudo mkfs.ext4 /dev/drbd0
sudo mkdir -p /var/www/html
sudo mount /dev/drbd0 /var/www/html
In order to upgrade, do the following:
apt install software-properties-common
then
sudo add-apt-repository ppa:linbit/linbit-drbd9-stack
Finally, perform apt-get update so that Debian will recognize the updated repository. After that, you can run the apt-get upgrade to upgrade DRBD to version 9.
apt-get update
apt-get upgrade

No he aconseguir passar a la versió 9, no em troba drbd per la debian
aquest és l'error

W: No s'ha pogut obtenir http://ppa.launchpad.net/linbit/linbit-drbd9-stack/ubuntu/dists/jessie/main/binary-amd64/Packages  404  Not Found

root@drbd1:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:Connected ro:Secondary/Primary ds:UpToDate/UpToDate C r-----
    ns:0 nr:851152 dw:34403500 dr:0 al:0 bm:286 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0


SI PARO ARA drbd0

root@drbd1:~# drbd-overview cat /etc/drbd
 0:r0/0  WFConnection Secondary/Unknown UpToDate/DUnknown
root@drbd1:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:WFConnection ro:Secondary/Unknown ds:UpToDate/DUnknown C r-----
    ns:0 nr:851152 dw:34403500 dr:0 al:0 bm:286 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0


SI TORNO A ENCENDRE drbd0
els dos en secundary fins que sincronitzi

root@drbd1:~# drbd-overview cat /etc/drbd
 0:r0/0  SyncTarget Secondary/Secondary Inconsistent/UpToDate
        [>....................] sync'ed:  0.1% (4944/4944)Mfinish: 0:52:44 speed: 1,260 (1,260) want: 1,360 K/sec
root@drbd1:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:SyncTarget ro:Secondary/Secondary ds:Inconsistent/UpToDate C r-----
    ns:0 nr:857404 dw:34409752 dr:0 al:0 bm:286 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:5058416
        [>....................] sync'ed:  0.3% (4936/4944)Mfinish: 0:39:31 speed: 2,084 (2,084) want: 3,040 K/sec
root@drbd1:~#

continua
root@drbd1:~# drbd-overview cat /etc/drbd
 0:r0/0  SyncTarget Secondary/Secondary Inconsistent/UpToDate
        [============>.......] sync'ed: 65.9% (1688/4944)Mfinish: 0:00:49 speed: 34,856 (25,460) want: 36,920 K/sec
root@drbd1:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:SyncTarget ro:Secondary/Secondary ds:Inconsistent/UpToDate C r-----
    ns:0 nr:4262360 dw:37814708 dr:0 al:0 bm:511 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:1653460
        [============>.......] sync'ed: 67.5% (1612/4944)Mfinish: 0:00:46 speed: 35,064 (25,648) want: 38,520 K/sec

se disparó consumo de red y uso de disco

root@drbd1:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:Connected ro:Secondary/Secondary ds:UpToDate/UpToDate C r-----
    ns:0 nr:5915820 dw:39468168 dr:0 al:0 bm:613 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0

root@drbd1:~# drbd-overview cat /etc/drbd
 0:r0/0  Connected Secondary/Secondary UpToDate/UpToDate

MISSATGES DEL SYSLOG

May 22 00:14:48 drbd1 kernel: [83618.112489] block drbd0: helper command: /sbin/drbdadm before-resync-target minor-0
May 22 00:14:48 drbd1 kernel: [83618.113577] block drbd0: helper command: /sbin/drbdadm before-resync-target minor-0 exit code 0 (0x0)
May 22 00:14:48 drbd1 kernel: [83618.113586] block drbd0: conn( WFSyncUUID -> SyncTarget ) disk( Outdated -> Inconsistent )
May 22 00:14:48 drbd1 kernel: [83618.113591] block drbd0: Began resync as SyncTarget (will sync 5064668 KB [1266167 bits set]).
May 22 00:17:01 drbd1 CRON[2464]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
May 22 00:17:49 drbd1 kernel: [83800.029781] block drbd0: Resync done (total 181 sec; paused 0 sec; 27980 K/sec)
May 22 00:17:49 drbd1 kernel: [83800.029787] block drbd0: updated UUIDs 716CEB055F69D08C:0000000000000000:82078DA323F1657E:82068DA323F1657F
May 22 00:17:49 drbd1 kernel: [83800.029792] block drbd0: conn( SyncTarget -> Connected ) disk( Inconsistent -> UpToDate )
May 22 00:17:49 drbd1 kernel: [83800.030037] block drbd0: helper command: /sbin/drbdadm after-resync-target minor-0
May 22 00:17:49 drbd1 kernel: [83800.031152] block drbd0: helper command: /sbin/drbdadm after-resync-target minor-0 exit code 0 (0x0)


FINALMENT HE TINGUT QUE FER
root@drbd0:~# mount /dev/drbd0 /var/www/html
mount: /dev/drbd0 is write-protected, mounting read-only
mount: mount /dev/drbd0 on /var/www/html failed: El tipus de mitjà  no és và lid
root@drbd0:~# drbdadm -- --overwrite-data-of-peer primary r0

POSAR DRBD0 COM A PRIMARY
root@drbd0:~# cat /proc/drbd
version: 8.4.3 (api:1/proto:86-101)
srcversion: 1A9F77B1CA5FF92235C2213
 0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r-----
    ns:5064668 nr:0 dw:0 dr:5066084 al:0 bm:327 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0
root@drbd0:~# mount /dev/drbd0 /var/www/html


ja ho puc montar , miro en drbd1
root@drbd1:/var# mount /dev/drbd0 /var/www/html
mount: /dev/drbd0 is write-protected, mounting read-only
mount: mount /dev/drbd0 on /var/www/html failed: El tipus de mitjà  no és và lid


com es secondary, només de lectura.


EL SEGÜENT ARTICLE SERÀ , sobre el drbd montarem una ip flotant amb heartbeat
https://www.globo.tech/learning-center/high-availability-heartbeat-drbd-ubuntu-16/







diumenge, 21 de maig del 2017

entrar via ssh sin contraseña (clave publica autorizada)

Generant la clau en parella publica privada

ssh-keygen -t rsa

genera dos fitxers
  • Clau privada: ~/.ssh/id_rsa
  • Clau publica: ~/.ssh/id_rsa.pub
afegir la clau generada al servidor
jo abans la renombre
mv id_rsa.pub publicaservidor1.pub

ho envien a l'altre ordinador

scp publicaservidor1.pub @:/home//.ssh/

finalment 

dintre de la carpeta .ssh creació del document authorized_keys y le afegim el contingut de ll'arxiu amb la clau pública:
touch authorized_keys
cat id_rsa.pub >> authorized_keys

divendres, 19 de maig del 2017

renovació certificat letsencrypt


 l'Únic a fer cada 3 messos


root@frontal:/opt/letsencrypt# ./certbot-auto renew
Upgrading certbot-auto 0.8.1 to 0.14.1...
Replacing certbot-auto...
Creating virtual environment...
Installing Python packages...
Installation succeeded.
Saving debug log to /var/log/letsencrypt/letsencrypt.log

-------------------------------------------------------------------------------
Processing /etc/letsencrypt/renewal/frontal.ies-sa......cat.conf
-------------------------------------------------------------------------------
Cert is due for renewal, auto-renewing...
Renewing an existing certificate
Performing the following challenges:
tls-sni-01 challenge for frontal.ies-sa......cat
tls-sni-01 challenge for frontal.institutsa......cat
Waiting for verification...

Cleaning up challenges

-------------------------------------------------------------------------------
new certificate deployed with reload of apache server; fullchain is
/etc/letsencrypt/live/frontal.ies-sabadell.cat/fullchain.pem
-------------------------------------------------------------------------------

Congratulations, all renewals succeeded. The following certs have been renewed:
  /etc/letsencrypt/live/frontal.ies-sa......cat/fullchain.pem (success)

dijous, 18 de maig del 2017

poti-poti-bash_history del proxmox

lvdisplay
lvdisplay vpe
lvdisplay pve
fdisk -l
pvdisplay
pvscan
vgdisplay
vgscan
pvdisplay
pvdisplay
lvscan
lvdisplay
vgs
vgscan
pvs
pvscan
lvs
lvscan
pvdisplay /dev/sda3
pvdisplay /dev/sda1
pvdisplay /dev/sda2


pvesm lvmthinscan pve
pvesm lvmthinscan
lvgdisplay
vgscan
pvesm lvmthinscan vmdata


pvs
pvs -o
pvs --all

pvdisplay
pvscan
lvscan
vgscan
vgbackup -nombrebackupvg -vmdata
vgcfbackup -nombrebackupvg -vmdata
vgcfgbackup -nombrebackupvg -vmdata
vgcfgbackup -f -nombrebackupvg -vmdata
vgcfgbackup -f nombrebackupvg vmdata
ls
mv nombrebackupvg -root
mv nombrebackupvg /root
more /root/nombrebackupvg

lvs -a
lvextend -L+256M vmdata/vmstore
lvs -a
lvconvert --repair
lvextend -L+256M vmdata/vmstore_tmeta
lvs
lvs -a
lvextend -L+256M vmdata/vmstore_tmeta
lvs -a
lvextend -L+256M vmdata/vmstore_tmeta
lvs -a
tail -f /var/log/syslog
dmesg
dmesg
tail -f /var/log/syslog
dmesg
iostat
iostat 'x
pvdisplay
pvdisplay /dev/sda3
pvdisplay /dev/sda1
pvdisplay /dev/sdb1
ls
qmrestore vzdump-qemu-206-2017_04_29-09_17_22.vma.lzo 206 --storage local-raid

pct restore 100 vzdump-lxc-100-2017_04_29-06_15_01.tar.lzo --storage local-lvm
dmesg
tail -f /var/log/syslog
pct restore 100 vzdump-lxc-100-2017_04_29-06_15_01.tar.lzo --storage local-lvm
dmesg
tail -f /var/log/syslog
pct enter 100
dmesg
tial -f /var/log/syslog
tail -f /var/log/syslog
dmesg
lvs
htop
glances
dmesg
tail -f /var/log/syslog

ls
pct restore 210 vzdump-lxc-21 --storage local-lvm
qmrestore vzdump-qemu-210-2017_04_29-19_09_48.vma.lzo 210 --storage local-lvm

pct restore 118 vzdump-lxc-117-2017_05_06-07_51_01.tar.lzo --storage local-raid

qmrestore vzdump-qemu-208-2017_04_29-12_10_27.vma.lzo 208 --storage local-raid

root@hp350:/mnt/backup/montado226# pvesm status
backup-hd2T    dir 1      1922728752       201530796      1623505900 11.54%
local          dir 1        71859544         3774324        64411928 6.04%
local-lvm    lvmthin 1       194502656       140275315        54227340 72.62%
local-raid   lvmthin 1      1866727424       399292995      1467434428 21.89%
nfs3228        nfs 1      1922860032      1242675712       582508544 68.58%
wd-0154        nfs 1      1914457536      1455644032       439345984 77.32%

Conversión de Contenedores OpenVZ a LXC

http://nihilanthlnxc.cubava.cu/2016/01/07/de-mi-manual-de-proxmox-ve-4-x-conversion-de-contenedores-openvz-a-lxc/

En otras palabras, los pasos se resumen de la siguiente manera:
En el Hipervisor Proxmox VE 3.x
  1. Fijarse bien en la configuración de los parámetros de la red del contenedor a migrar (esto es fundamental en el momento de la restauración en el nuevo hipervisor) y anotarla en algún lugar para su uso posterior
  2. Realizar una salva o respaldo del contenedor OpenVZ

En el Hipervisor Proxmox VE 4.x

  1. Crear un contenedor LXC a partir del respaldo del contenedor OpenVZ (previamente copiado en el nuevo hipervisor)
  2. Configurar los parámetros de la red del contenedor con los valores que tenía (tomados del paso 1)
  3. Encender el contenedor y revisar que todo esté correctamente
primer a proxmox 3 - 
root@proxmox1:~# vzlist
      CTID      NPROC STATUS    IP_ADDR         HOSTNAME
       100         52 running      deb7-CACTI.ies-sabadell.cat
       104         41 running   IP   users.ies-sabadell.cat
       105          9 running   -               enrutador-links.ies-sabadell
       106         52 running   3   hermes.ies-sabadell.cat
       107         
       108         71 running   IP   frontal.ies-sabadell.cat
       109         66 running      cisco.ies-sabadell.cat
       114         
       116         29 running      dns.ies-sabadell.cat
      

root@proxmox1:~# vzlist 108
      CTID      NPROC STATUS    IP_ADDR         HOSTNAME
       108         79 running   192.168.   frontal.ies-sabadell.cat

vzctl stop 100 && vzdump 100 --remove 0 --mode stop --compress gzip --storage samba155

lo envio al otro servidor

scp /var/lib/vz/dump/vzdump-openvz-110-2015_12_29-00_04_09.tar.gz root@prx4-c0-1-drbd8:/var/lib/vz/dump

en otro proxmox4 
root@hp350:~# pvesm status
backup-hd2T    dir 1      1922728752       201530792      1623505904 11.54%
local          dir 1        71859544         3819736        64366516 6.10%
local-lvm    lvmthin 1       194502656       139769608        54733047 72.36%
local-raid   lvmthin 1      1866727424       398919650      1467807773 21.87%
nfs3228        nfs 1      1922860032      1240326656       584857600 68.46%
wd-0154        nfs 1      1914457536      1451688896       443301184 77.11%

pct restore 118 vzdump-lxc-117-2017_05_06-07_51_01.tar.lzo --storage local-raid

o

pct restore 110 /var/lib/vz/dump/vzdump-openvz-110-2015_12_29-00_04_09.tar.gz

finalment queda configurar la xarxa

Pero estos nuevos contenedores tienen un problema: no tienen configuración de red establecida. Sí, todos los contendores, cuando se va a la pestaña “Network” se ve que no tiene configuración establecida:
148 - Gestor de Proxmox VE - CT LXC 110 - Red No Configurada
Lo que queda es configurar la red de los contenedores LXC recientemente restaurados con los valores originales que se recopilaron al principio de todo este proceso.
Añadir la configuración de red a los contenedores LXC basada en las configuraciones originales
Como elemento a destacar, los conentedores LXC utilizan por defecto (y como única opción) adaptadores de red virtuales los cuales se pueden asociar a los bridges configurados en el nodo Proxmox VE. En otras palabras, usan el modelo veth únicamente, lo cual es muy bueno porque se puede controlar el acceso utilizando el cortafuegos de Proxmox VE.
Entonces, configurar la red de los contenedores LXC se puede hacer de dos maneras: a través de la WebGUI o a través de la CLI.
En caso de hacerlo por la WebGUI (por ejemplo, el CT LXC 110):
149 - Gestor de Proxmox VE - CT LXC 110 - Configuración de la Red - Interfaz veth
150 - Gestor de Proxmox VE - CT LXC 110 - Red Configurada - IP 10.0.1.27, CIDR 28
En caso de hacerlo por la CLI o Shell de Proxmox VE (por ejemplo, el CT LXC 111):

root@prx4-c0-1-drbd8:~# pct set 111 -net0 name=eth0,bridge=vmbr0,ip=10.0.1.28/28,gw=10.0.1.17

root@prx4-c0-1-drbd8:~#
Y así se completa casi todo el proceso de conversión de contenedores OpenVZ de un hipervisor Proxmox VE 3.x a contenedores LXC en un hipervisor Proxmox VE 4.x.
 



finalment arrancar contenidors
root@prx4-c0-1-drbd8:~# pct start 118

RECORDEU EN LES CLONACIONS SI LA MAC VA DUPLICADA ' AL TANTO ' 

pct enter 118