Archivo de la categoría: Base de coñocimiento

Extender disco en Linux

  • según este tutorial, procedemos a extender la partición desde dentro de linux.
    https://help.clouding.io/hc/es/articles/360010074599-C%C3%B3mo-extender-particiones-manualmente-en-Linux
    apt install cloud-guest-utils
    apt autoclean
    apt autoremove
    df -h # verificamos que dispositivo y partición son los que necesitamos extender
    parted /dev/sda u s p # verificamos que no hay errores en la partición
    growpart /dev/sda 1 # extiende a partición, ero no el filesystem de dentro
    resize2fs /dev/sda1 # Extiende el filesystem
  • nos dice que no hay nada que hacer, que ya está a su tamaño máximo, etc y sigue mostrando 93% ocupado.
  • reiniciamos el linux a ver.
  • lo mismo:
    administracion@lb5:~$ sudo growpart /dev/sda 1 NOCHANGE: partition 1 is size 30668800. it cannot be grown administracion@lb5:~$ sudo resize2fs /dev/sda1 resize2fs 1.46.5 (30-Dec-2021) El sistema de ficheros ya tiene 3833600 bloques (4k) de longitud. ¡No hay que hacer nada! administracion@lb5:~$ df -h S.ficheros Tamaño Usados Disp Uso% Montado en tmpfs 193M 2,1M 191M 2% /run /dev/sda1 15G 13G 993M 93% / tmpfs 964M 0 964M 0% /dev/shm tmpfs 5,0M 0 5,0M 0% /run/lock tmpfs 193M 0 193M 0% /run/user/1000
  • apagamos el linux.
  • hacemos un snapshot en ESX
  • le conectamos el iso del hirens viejo
  • arrancamos con el gparted.
  • vemos el problema y reconfiguramos las particiones a mano gráficamente con el gparted.
  • parece que no casca.
  • ahora el webmin reporta 57% ocupado.
  • parece que todo funciona perfectamente.
  • eliminaremos el snapshot del disco duro virtual del linux en unos días.

Actualizar Portainer en Docker

gracias a esta url, nos dio una idea y ya hemos solucionado el problema con el portainer:
https://github.com/portainer/portainer/issues/6404

como no es tema de espacio libre en disco, seguramente será que la carpeta con la BD se ha corrompido de alguna forma o no es compatible.

probamos a eliminarla:

sudo docker stop portainer
sudo docker rm portainer
sudo docker volume rm portainer_data
sudo docker image rmi portainer/portainer-ce
sudo docker image ls | grep portainer (si vemos alguna imagen referente a portainer, nos cogemos su ID y…)
sudo docker image rmi ID_de_la_imagen_portainer

Ahora que ya tenemos limpito el asunto de containers e imágenes:

sudo docker volume create portainer_data

Ubuntu:
> sudo docker run -d -p 9000:9000 -p 9443:9443 –name=portainer –restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce:latest

Debian 11:
> sudo docker run -d -p 9000:9000 -p 9443:9443 –name portainer –restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce:latest
Fuente: https://kifarunix.com/install-portainer-on-debian-11-debian-10/

ahora funciona y nos pide crear credenciales de administrador para empezar. La contraseña ha de tener 12 caracteres.

También podríamos restaurar un backup a fichero de la versión anterior del portainer…


Activar hibernar en windows 7

https://www.codigobit.info/2011/05/como-habilitar-hibernar-en-windows-7.html

  • cmd: powercfg /hibernate on
  • cmd: PowerCfg.cpl
  • Cambiar la frecuencia con la que el equipo entra en estado de suspensión / Cambiar la configuración avanzada de energía / Suspender –> Permitir suspensión híbrida –> Configuración = Desactivar
  • Ahora ya podremos ver la opción Hibernar en las opciones de Apagar del menú inicio.

Configurar SAI/UPS NUT SERVER con Synology y otros sistemas como cliente

El NUT Server del DSM usa las credenciales monuser / secret para los NUT Clients

Windows:
https://www.synoforum.com/resources/windows-nut-client-incl-gui-network-ups.158/
En la Synology, en opciones de energía – UPS, activar el «Network UPS Server».
Agregar las ips de los clientes en «Permitted DiskStaion Devices»
Aplicar.
Instalar el fichero MSI del Cliente Gráfico: https://github.com/gawindx/WinNUT-Client/releases
El usuario por defecto en Synology está en: /usr/syno/etc/ups/upsd.users (monuser / secret)
Al configurar el NUT Server hay que poner polling interval 30 segundos, por ej., o no conectará nunca.

Synology: creando un script
https://diktiosolutions.eu/en/synology/synology-ups-nut-en/

Ubuntu:
https://www.howtoraspberry.com/2021/05/how-to-configure-an-orderly-shutdown/
https://diktiosolutions.eu/en/synology/synology-ups-nut-en/

Pi:
https://www.howtoraspberry.com/2020/11/how-to-monitor-ups-with-raspberry-pi/

ESXi:

https://github.com/networkupstools/nut/wiki/NUT-and-VMware-(ESXi)
https://github.com/rgc2000/NutClient-ESXi


Entrar por SSH root a Synology

https://superuser.com/questions/1057853/synology-dsm-cant-log-as-root-but-works-with-admin

Activar SSH en DSM. ¡¡No se puede hacer root desde telnet!!.

  • Entrar por SSH con un usuario del grupo administradores
  • Hacer: sudo -i o sudo su –
  • Meter la contraseña del usuario administrador con el que hayamos entrado y ya seremos root.

El misterio del DNIe….resuelto al fin

El martirio, el Imposible, la quimera….del DNIe, ha sido resuelta al fin: usar el abuelete IE 32 bits y seguir estas instrucciones.

 

Instalación software dnie y obtención certificado FNMT instantáneamente

  1. Descargar software DNIe 64 bits:
    https://www.dnielectronico.es/PortalDNIe/PRF1_Cons02.action?pag=REF_1106Ejecutarlo:  msiexec /i » DNIe_v14_1_0(64bits).msi» /quiet
  2. Instalar Autofirma:
    https://firmaelectronica.gob.es/Home/Descargas.html
  3. En Opciones de IE:
    1. Agregar en sitios de confianza:
      •En el navegador Internet Explorer, vaya a Herramientas – Opciones de Internet – Seguridad.
      •Pulsar en «Sitios de Confianza» y a continuación pulsar en «Sitios».
      •Abajo, desmarcar la opción de «Requerir comprobación del servidor (https://) para todos los sitios de la zona»En el cuadro de texto «Agregar este sitio Web a la zona» tendremos que agregar las siguientes URLs https://*.fnmt.es , https://*.fnmt.gob.es , http://*.fnmt.es y http://*.fnmt.gob.es
      •Cerrar la ventana.
    2. En «Nivel de seguridad para esta zona «pulse el botón Nivel personalizado. Busque el apartado «Controles y complementos de ActiveX» y Habilite todas las opciones.
      •Pulsar en Aceptar, le aparecerá un mensaje para confirmar que deberá aceptar.
      •Aplicar y aceptar la última ventana.
      •Cerrar el navegador para que se apliquen los cambios.

Modificando MTU…y no hablamos en vacuno

Al cambiar la MTU (tamaño máximo del paquete) de un equipo deberemos también cambiarla de todos los equipos del mismo segmento (o VLAN), ya que sino esperan paquetes mucho más pequeños. También deberemos tener en cuenta que si nos comunicamos con equipos de fuera de este segmento el router deberá trocear los paquetes, con la carga extra que supone.

 

Para Windows Server:

  • netsh interface ipv4 show interfaces
  • netsh interface ipv4 set subinterface «10» mtu=1454 store=persistent
  • ping google.com -f -l 1500

 

Para Linux:

  • Usando el comando ifconfig: ifconfig eth3 mtu 9000
  • Usando el comando ip: ip link set eth2 mtu 9000
  • nano /etc/sysconfig/network-scripts/ifcfg-eth2:
    DEVICE=eth2
    BOOTPROTO=static
    IPADDR=10.1.1.1
    NETMASK=255.0.0.0
    ONBOOT=yes
    ETHTOOL_OPTS=»autoneg on»
    MTU=9000
  • ping google.com -v -s 1500

 
Fuentes:

 

 


NFSv4 y ESXi, de verdad de la buena

NFSv4
Currently, there are three versions of NFS. NFS version 2 (NFSv2) is older and is widely supported. NFS version 3 (NFSv3) supports safe asynchronous writes and a more robust error handling than NFSv2; it also supports 64-bit file sizes and offsets, allowing clients to access more than 2Gb of file data.

NFS version 4 (NFSv4) works through firewalls and on the Internet, no longer requires an rpcbind service, supports ACLs, and utilizes stateful operations. Red Hat Enterprise Linux 6 supports NFSv2, NFSv3, and NFSv4 clients. When mounting a file system via NFS, Red Hat Enterprise Linux uses NFSv4 by default, if the server supports it.

All versions of NFS can use Transmission Control Protocol (TCP) running over an IP network, with NFSv4 requiring it. NFSv2 and NFSv3 can use the User Datagram Protocol (UDP) running over an IP network to provide a stateless network connection between the client and server.

When using NFSv2 or NFSv3 with UDP, the stateless UDP connection (under normal conditions) has less protocol overhead than TCP. This can translate into better performance on very clean, non-congested networks. However, because UDP is stateless, if the server goes down unexpectedly, UDP clients continue to saturate the network with requests for the server. In addition, when a frame is lost with UDP, the entire RPC request must be retransmitted; with TCP, only the lost frame needs to be resent. For these reasons, TCP is the preferred protocol when connecting to an NFS server.

The mounting and locking protocols have been incorporated into the NFSv4 protocol. The server also listens on the well-known TCP port 2049. As such, NFSv4 does not need to interact with rpcbind[2], lockd, and rpc.statd daemons. The rpc.mountd daemon is still required on the NFS server to set up the exports, but is not involved in any over-the-wire operations.

Fuente: http://forums.nas4free.org/viewtopic.php?t=259
NAS4Free soporta NFSv4, pero se ha de activar usando el checkbox. Sólo se podrán conectar los ESXi 6.0 o superiores.
Cómo activar NFSv4 en FreeBSD 9.1:
http://plone.lucidsolutions.co.nz/storage/network/nas4free/enable-nfs-v4-on-nas4free-v9.1/view

 

NFSv4 y ESXi

ESXi 5.5 no soporta NFSv4. Sólo NFSv3, el cual va por UDP.

ESX 6.0 sí soporta NFSv4.1:
If you are using NFS storage for VMs (either on a hardware NAS box or hosted on a VM) with your ESXi hosts then you might be interested in the new support for NFS version 4.1. Version 4.1 has superior new features (state management, improved locking, Kerberos authentication) and can be much more efficient and performant than 3.0 (which was exclusively supported with ESXi 5.x), but that depends very much on the client implementation. Time and the performance tests to come will tell how much you can gain from it with ESXi.

NAS4Free soporta NFSv4, pero se ha de activar usando el checkbox. Sólo se podrán conectar los ESXi 6.0 o superiores.

Guías de buenas práctica spara conectar ESXi a NFS:

NFS Best Practices – Part 1: Networking

NFS Best Practices – Part 2: Advanced Settings

Con ESXi 6.0 y NFSv4 ya se puede hacer un balanceo de carga accediendo al NFS por varias IPs. Antes todo el datastore NFS se comunicaba por una única conexión TCP/IP. En el NAS4Free podríamos usar LAACP para que pueda ser accedido por dos ips distintas: https://www.youtube.com/watch?v=4d_-JZyvdgw

Multipathing and Load-balancing:
Now onto the improvements. NFS v4.1 introduces better performance and availability through load balancing and multipathing. Note that this is not pNFS (parallel NFS). pNFS support is not in vSphere 6.0.
Setup NFSv4.1 datastoreIn the server(s) field, add a comma separate list of IP addresses for the server if you wish to use load-balancing and multipathing.

Fuente: http://cormachogan.com/2015/02/04/vsphere-6-0-storage-features-part-1-nfs-v4-1/


XPEnology no tiene nada que ver con güindows

NAS4Free es mi NAS de cabecera, pero en un proyecto no he conseguido que se entendiera bien con los clientes windows en el tema de permisos. Mientras los permisos de ZFS decían que los usuarios del grupo podían escribir sin problemas en un fichero creado por otro usuario de ese mismo grupo, windows se empeñaba en pasar tres pueblos de ese aspecto y no dejar modificar ficheros cuyo propietario no fuera él mismo.

Este problema, pequeño, casi insignificante, ha hecho que casi se vaya al traste todo el proyecto.

Dejando de lado cuestiones como lo sencillo que es caminar sobre el agua y las especificaciones siempre y cuando estas estén congeladas y que no suelo vender humo sin haberlo fumado antes, este problema podría incrementar en más de mil napos el montante del proyecto tras ser aceptado. Sí: lo que cuesta un windows server 2012, vamos….

Así que ha habido que pasar por diversas alternativas:

  • windows 7 como servidor de ficheros: descartado, puesto que el número de usuarios supera los 10.
  • FreeNAS: descartado, puesto que precisamente NAS4Free es un fork del otro.
  • Otras distros NAS: a todas les termina de faltar algo.
  • Cabina de discos Synology: como softwware sería perfecto, pero el problema es que si casca la placa o fuente o tarjeta de red de la cabina…..el downtime es insostenible o incluso obliga a comprar una cabina nueva y rear por que se importe todo sin problemas.

 

Finalmente….se ve que existe un proyecto de dudosa moral….. que permite instalar el software de dichas cabinas, llamado DSM, en un PC. Cómo no?, nos pusimos a ello 🙂

Murphy estaba gracioso ese día. La verdad es que llevaba gracioso ya todo el proyecto. Pero a base de cabezazos y algunas dosis de antimurphys, conseguimos el objetivo: un DSM sobre el PC que el habíamos vendido al cliente.

A groso modo y para que no caiga en el olvido, existen varios puntos a destacar para entender el cotarro:

  • XPEnoboot es la base de todo, con lo que siemre se arranca, tanto en la instalación, como en un upgrade como en producción. Se puede grabar un ISO en CD físico o vrtual, se puede usar una IMG para con el WinDiskImager crear un USB de arranque o se puede descargar directamente un VMDK para virtualización.
  • Al arrancarlo por primera vez, seleccionar el boot de «install/upgrade». Instalar en un PC el Synology Asistant (descargable gratis de la web de Synology). Usarlo para encontrar el PC en la red y con el botón dcho sobre él, subirle el fichero PAT con la versión del DSM a instalarle. Nunca usar el interfaz web para esta tarea, salvo en el caso de instalar un upgrade.
  • No importa que el teclado se quede bloqueado. No importa que nos diga que no ha encontrado red. Buscadlo, que aparece y le dais caza. Es muy puñetero.
  • Tras instalarlo, reinicia. En pantalla podéis ver si os podéis conectar ya o no. Eso sí, reinciia, usando el usb, pero desde la primera opción de arranque, la normal. Producción.
  • Desactivad las opciones de actualziación del software y tal y acordaos SIEMPRE de guardar una copia de la configuración, desactivar el halt on F1 de la bios y esas cosas.
  • Para actualizar a un update, reiniciáis desde la web (no se puede apagar desde l botón frotnal del PC; una pena). Arrancáis en el ercer mdoo de «install/upgrade». Os conectáis a su web y le subís el fichero PAT de update. Reiniciará al acabar.

 

Lo bueno es que si la cagas, las configuraciones las tienes en backup y los discos y sus relaciones y carpetas compartidas están a salvo y serán reimportados cuando lo reinstaléis. Disfrutadlo.

 

Fuentes:

http://xpenology.me/downloads/

XPENOLOGY convierte Tu computador en un NAS

Montando Synology DSM 5.1 NAS en un portátil (o en cualquier equipo x86)

https://www.profesionalreview.com/2015/06/15/como-instalar-xpenology-dsm-en-tu-nas-manual-completo/

 

 


Importar un volumen LVM en otro linux

El otro día cascó una minicabina de dos discos en espejo a un cliente.

Su software era incapaz de reimportar los discos. En su lugar los reformateaba al reagregarlos como espejos así que me dispuse a sacarlos y analizarlos individualemnte a ver qué podíamos hacer, ya que el cliente lo estaba usando como almacenamiento sin hacer backup, claro.

Aprovecho para recordar que da igual cuántos NAS, discos, etc tengamos. Al final, SIEMPRE, vamos a depender en última instancia de un disco USB grande formateado de manera estándar y sin encriptación  de donde sacar nuestros datos.

Estos NAS pequeñitos suelen tener un linux con una relación de discos montada sobre un LVM. Se trata de una configuración estándar de windows y deberíamos pdoerla importar en cualquier Ubuntu, por ejemplo.

Desmonté el NAS y saqué los discos. Cómo no!: eran dos seagate. Puse uno delos discos en una base USB y arranqué un ubuntu liveCD (realmente era una VM arrancando con el iso bajo ESX y le agregué el usb device que le presentaba el ESX donde pinché la base usb, pero bueno).

Tras confirmar que el formato de las particiones no era estándar, pero sí que me daba información sobre que era un sistema LVM, me descargué el paquete de utilidades de LVM2 y ejecuté los comandos para importar el volumen, esperando fuera un espejo. Efectivamente resultó ser un espejo y pude rescatar los datos de uno de los discos copiándolos a otro USB. El otro disco del espejo estaba cascado y se llevó por delante el NAS entero. Gran seguridad, sí señor……

 

A continuación los comandos que usé y la fuente de información usada:

Fuente: http://ubuntuforums.org/showthread.php?t=1977488

Comenzamos con:

sudo apt-get install lvm2
sudo mkdir /mnt/destino

Y con sudo todo:

1. sudo fdisk -lu 
2. sudo pvscan
3. sudo vgscan
4. sudo vgchange -a y 
5. sudo lvscan
6. sudo mount /dev/lvmvolume/root /mnt/destino

El nombre «lvmvolume/root» variará en nuestro caso siempre, conociéndolo en el punto 5.

Luego montamos un disco externo usb en esa VM y le copiamos los datos a rescatar tranquilamente.