Parte 5 de las mejores prácticas de Proxmox: optimización del rendimiento: ¡Saca el último porcentaje!

Optimizaciones del rendimiento de Proxmox: algunos consejos útiles para usted

Optimizaciones de CPU para máquinas virtuales para configurar correctamente el tipo de CPU host para máquinas virtuales

Al crear una máquina virtual, Proxmox utiliza un tipo de CPU genérico de forma predeterminada. Esto es compatible, pero no es óptimo para el rendimiento. Con el tipo de CPU «host», puede pasar todas las funciones de su CPU física a la máquina virtual:

qm conjunto 100 --cpu host

Esta configuración garantiza que la máquina virtual pueda utilizar todas las funciones de la CPU del sistema host, desde conjuntos de instrucciones dedicados hasta la aceleración de hardware. Esto aporta importantes ventajas de rendimiento, pero hace que la máquina virtual sea menos portátil entre diferentes sistemas de hardware.

Alternativamente, puede elegir un tipo de CPU específico y agregar características específicas:

qm set 100 --cpu "Haswell,+aes"

Aquí, se utiliza el tipo de CPU Haswell con cifrado AES. Esto es útil cuando se necesita un equilibrio entre el rendimiento y la compatibilidad.

Conciencia de NUMA para un mejor rendimiento de la memoria

Para los sistemas modernos de múltiples sockets, NUMA (Non-Uniform Memory Access) es un factor de rendimiento importante. Primero puede ver la topología NUMA de su sistema:

numactl --hardware

Para máquinas virtuales con requisitos de alto rendimiento, debe habilitar NUMA:

qm set 100 --numa 1 qm set 100 --memoria 8192 --sockets 2 --cores 4

Esta configuración divide los recursos de la máquina virtual de acuerdo con los nodos físicos NUMA. Esto reduce la latencia de la memoria y mejora el rendimiento general, especialmente para aplicaciones intensivas en memoria.

Comprender y aplicar optimizaciones de memoria

Configurar el globo de forma inteligente

El globo de memoria es una característica inteligente que redistribuye dinámicamente la RAM entre el host y las máquinas virtuales. De forma predeterminada, está habilitado:

qm conjunto 100 --balloon 4096 # RAM mínima

Este valor determina la cantidad de RAM que la máquina virtual retiene al menos, incluso si el sistema de globos está activo. Para la mayoría de las aplicaciones, esto funciona bien y ahorra RAM.

Sin embargo, para máquinas virtuales críticas para el rendimiento, debe desactivar el globo:

qm conjunto 100 --balloon 0

Sin dispararse, la máquina virtual tiene acceso constante a toda su memoria RAM, lo que proporciona un rendimiento más coherente, especialmente importante para las bases de datos o las aplicaciones en tiempo real.

Enormes páginas para cargas de trabajo intensivas en almacenamiento

Las páginas enormes reducen la sobrecarga de administración de memoria para las máquinas virtuales con mucha RAM. Primero tienes que activarlo en el host:

echo 'vm.nr_hugepages=1024' >> /etc/sysctl.conf sysctl -p

El número depende de la memoria RAM disponible: cada página enorme suele tener un tamaño de 2 MB. A continuación, los activa para la máquina virtual:

qm conjunto 100 --hugepages 1g

Esto es especialmente beneficioso para las máquinas virtuales con más de 8 GB de RAM, ya que mejora significativamente el rendimiento de la memoria.

Optimización del rendimiento de E/S de almacenamiento

Programador de E/S para diferentes tipos de memoria

El planificador de E/S decide cómo organizar el acceso al disco. Para SSDs es mq-plazo óptimo:

echo mq-deadline > /sys/block/sda/queue/scheduler

Los SSD no tienen partes mecánicas, por lo que un simple planificador es lo mejor. Para HDDs, sin embargo, bfq (Presupuesto Fair Queueing) mejor:

echo bfq > /sys/block/sdb/queue/scheduler

BFQ considera las propiedades mecánicas de los HDD y optimiza en consecuencia. Para que esta configuración sea permanente, cree una regla udev:

cat > /etc/udev/rules.d/60-scheduler.rules << 'EOF' # SSD Scheduler ACTION=="add changechange", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="0", ATTR{queue/scheduler}="mq-deadline" # HDD Scheduler ACTION=="add changechange", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="1", ATTR{queue/scheduler}="bfq" EOF

Comprensión de los modos de caché de disco

Los modos de caché determinan cómo se manejan las operaciones de escritura:

  • escritura: Cada proceso de escritura se escribe inmediatamente en el disco duro. Esto es muy seguro, pero también el más lento, ya que está esperando la confirmación mecánica.
  • amortización: Las operaciones de escritura se almacenan primero en memoria RAM y luego se escriben en el disco duro. Esto es mucho más rápido, pero conlleva el riesgo de pérdida de datos en caso de una falla repentina de energía.
  • ninguno: Deshabilita cualquier almacenamiento en caché. Esto es ideal para sistemas de almacenamiento compartido como NFS o Ceph, donde el propio sistema de almacenamiento se hace cargo del almacenamiento en caché.

Aplicar optimizaciones de E/S específicas de VM

Los subprocesos de E/S externalizan las operaciones del disco para separar los subprocesos:

qm set 100 --scsi0 local-lvm:vm-100-disk-0,iothread=1

Esto reduce la carga de la CPU en el hilo principal de la máquina virtual y mejora el rendimiento de E/S.

Para obtener el máximo rendimiento, puede activar la caché de escritura:

qm set 100 --scsi0 local-lvm:vm-100-disk-0,cache=writeback

Para los SSD, también debe habilitar el soporte TRIM y las optimizaciones de SSD:

qm set 100 --scsi0 local-lvm:vm-100-disk-0,discard=on,ssd=1

Esto descarte=en Habilita comandos TRIM que ayudan al SSD a administrar las áreas eliminadas. Esto ssd=1 Flag le dice a la VM que es un SSD, que activa las optimizaciones internas.

Debe implementar estas optimizaciones paso a paso mientras monitorea el rendimiento.

No todas las optimizaciones se adaptan a todas las cargas de trabajo, así que pruebe en un entorno de desarrollo antes de adaptar sus máquinas virtuales de producción.


Rendimiento de la red

Optimizaciones de VirtIO:

# Activar multi-queue sqm set 100 --net0 virtio,bridge=vmbr0,queues=4 # SR-IOV para hardware dedicado qm set 100 --hostpci0 0000:01:00.0,pcie=1

Monitoreo y solución de problemas

Archivos de registro importantes

# Proxmox-Logs tail -f /var/log/daemon.log # Registros Proxmox generales tail -f /var/log/pve-firewall.log # Registros del cortafuegos tail -f /var/log/pveproxy/access.log # Accesos a la interfaz web # Registros específicos de VM tail -f /var/log/qemu-server/100.log # VM 100 logs # Cluster logs tail -f /var/log/corosync/corosync.log tail -f /var/log/pve-cluster/pmxcfs.log

Supervisión del rendimiento (Salud del disco, Monitoreo del CEPH, Notificaciones)

Herramientas de CLI:

# Uso de CPU y memoria htop # iotop de E/S de disco -ao # Nethogs de tráfico de red # Monitoreo de procesos ps aux --sort=-%cpu ?? cabeza -20

Recuperar gráficos RRD a través de API:

# Uso de CPU para Node curl -k -H "Autorización: PVEAPIToken=root@pam!monitoring=SECRET" \ "https://proxmox:8006/api2/json/nodes/proxmox1/rrddata?timeframe=hour&cf=AVERAGE"

Problemas y soluciones comunes

Problema: «ERROR DE LA TAREA: Falló el comando “lvcreate”»

# LVM-Thin Pool Full - Hacer espacio lvs --all # Mostrar piscinas lvextend -L +50G /dev/pve/data # Ampliación de la piscina

Problema: La máquina virtual no se inicia – «kvm: no se pudo insertar el módulo»

# Los módulos KVM cargan modprobe kvm modprobe kvm-intel # o kvm-amd # Activar permanentemente echo kvm >> /etc/modules echo kvm-intel >> /etc/modules # o kvm-amd

Problema: Alta espera de E/S en las máquinas virtuales

# Comprobar las estadísticas de E/S iostato -x 1 # Límites de E/S específicos de VM establecidos qm set 100 --scsi0 local-lvm:vm-100-disk-0,mbps_rd=100,mbps_wr=50

Escenarios ampliados

Clúster de alta disponibilidad

Configuración del clúster de 3 nodos:

# En el nodo 1 pvecm crear mycluster # En los nodos 2 y 3 pvecm añadir 192.168.1.10 # IP del nodo 1 # Comprobar el estado del clúster pvecm status

Configuración de esgrima (importante para evitar la división del cerebro):

# Activar el temporizador del perro guardián echo softdog >> /etc/modules update-initramfs -u # Configurar dispositivo de cercado (por ejemplo IPMI) ha-manager añadir dispositivo de cerca ipmi --opciones "lanplus=1,username=admin,password=secret,ip=192.168.1.100"

Transmisor de GPU para máquinas virtuales

Activar IOMMU:

# /etc/default/grub GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on iommu=pt" # Intel # o GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on iommu=pt" # Reinicio de AMD update-grub

Pasar GPU a VM:

# Ver dispositivos PCI lspci -nn ?? grep -i nvidia # Desconecte la GPU del controlador host echo "0000:01:00.0" > /sys/bus/pci/devices/0000:01:00.0/driver/unbind # En VM pass sqm set 100 --hostpci0 0000:01:00.0,pcie=1,x-vga=1

Características avanzadas de Proxmox

Cloud init: Creación de VM

¿Qué es Cloud-Init? ¿Y por qué deberías usarlo?

Cloud-Init es el paquete estándar de facto para inicializar instancias de VM. Piense en ello como un asistente de configuración inicial inteligente que configura automáticamente sus máquinas virtuales. En lugar de copiar manualmente las claves SSH, configurar la red e instalar el software después de cada creación de VM, Cloud-Init lo hace todo en el primer arranque.

Esto no solo le ahorra tiempo, sino que también hace que sus implementaciones de VM sean reproducibles y resistentes a errores. Cloud-Init permite la implementación dinámica de instancias sin intervención manual.

Creación de una plantilla de Cloud-Init - La forma correcta

Etapa 1: Elegir la imagen correcta de la nube

No todas las imágenes de la nube son iguales. Estos son algunos ejemplos de descargas:

# Debian 12 (Bookworm) - Soporte estable y a largo plazo wget https://cloud.debian.org/images/cloud/bookworm/latest/debian-12-generic-amd64.qcow2 # Debian 13 (Trixie) - Pruebas, para las últimas características wget https://cloud.debian.org/images/cloud/trixie/latest/debian-13-generic-amd64.qcow2 # Ubuntu 24.04 LTS (Noble Numbat) wget https://cloud-images.ubuntu.com/noble/current/noble-server-cloudimg-amd64.img # Ubuntu 25.04 (Plucky Puffin) - Instalación mínima wget https://cloud-images.ubuntu.com/minimal/releases/plucky/release/ubuntu-25.04-minimal-cloudimg-amd64.img

Consejo profesional: Las imágenes mínimas son mucho más pequeñas y contienen solo los paquetes absolutamente necesarios. Perfecto para implementaciones tipo contenedor.

Etapa 2: Crear y configurar VM correctamente

# Crear VM con ajustes óptimos qm crear 9000 --memory 2048 --cores 2 --name ubuntu-cloud-template \ --net0 virtio,bridge=vmbr0 --agent enabled=1 # VirtIO SCSI Controller - ¡ESENCIAL para distribuciones Linux modernas! qm set 9000 --scsihw virtio-scsi-pci # Importar imagen de nube (¡ajustar ruta!) qm set 9000 --scsi0 local-lvm:0,import-from=/path/to/noble-server-cloudimg-amd64.img # Añadir cloud init drive qm set 9000 --ide2 local-lvm:cloudinit # Establecer orden de barco qm set 9000 --boot order=scsi0 # Habilitar la consola serie (importante para Cloud Images!) qm set 9000 --serial0 socket --vga serial0 # Agrandar el disco duro (las imágenes de la nube a menudo son solo 2 GB) qm disco redimensionar 9000 scsi0 +8G # Marcar como plantilla qm la plantilla 9000

¿Por qué estos ajustes específicos?

  • VirtIO SCSI: Las imágenes modernas de la nube esperan este controlador
  • Consola de serie: Las imágenes en la nube a menudo usan la consola serie en lugar de VGA
  • Agente de QEMU: Permite una mejor integración entre el host y la máquina virtual
  • Cambiar el tamaño del disco: Las imágenes de nubes se mantienen deliberadamente pequeñas

Implemente máquinas virtuales desde la plantilla de forma inteligente

Despliegue básico

# Clon de plantilla con nombre significativo qm clone 9000 201 --name webserver-prod-01 --full # Configuración básica de Cloud-Init qm set 201 --sshkey ~/.ssh/id_rsa.pub qm set 201 --ipconfig0 ip=10.0.10.201/24,gw=10.0.10.1 qm set 201 --nameserver 1.1.1.1 qm set 201 --searchdomain example.com qm set 201 --ciuser admin qm set 201 --cipassword $(openssl passwd -6 "SuperSafe password123!") # VM inicio qm inicio 201

Configuración avanzada con datos de usuario personalizados

¡Aquí se vuelve realmente poderoso! Crea una configuración de nube personalizada:

# /var/lib/vz/snippets/webserver-config.yaml #configuración regional de cloud-config: es_EN.UTF-8 zona horaria: Europa/Berlín # Instalar paquetes: - nginx - git - htop - curl - wget - unzip - vim - ufw # Configurar usuarios usuarios: - nombre: grupos de administración: [adm, sudo] sudo: ALL=(ALL) NOPASSWD:ALL shell: /bin/bash ssh_authorized_keys: - ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAAB... # Su clave SSH aquí # Configurar e iniciar servicios runcmd: - systemctl enable nginx - systemctl start nginx - ufw allow ssh - ufw allow 'Nginx Full' - ufw --force enable - sed -i 's/PasswordAuthentication yes/PasswordAuthentication no/' /etc/ssh/sshd_config - systemctl reload sshd # La página predeterminada de Nginx reemplaza write_files: - ruta: contenido de /var/www/html/index.html: |
      <!DOCTYPE html>
      <html>
      <head><title>Servidor web listo</title></head>
      <body>
        <h1>¡El servidor está listo!</h1>
        <p>Desplegado en: $(fecha)</p>
      </body>
      </html>

# Reinicie el sistema después de configurar power_state: Retraso: 1 modo: mensaje de reinicio: "Configuración de Cloud-Init completada, reiniciar..."

Utilice la plantilla con Custom Config:

qm set 201 --cicustom "user=local:snippets/webserver-config.yaml"

Funciones avanzadas de init en la nube

Datos de proveedores para configuraciones especiales

# /var/lib/vz/snippets/vendor-config.yaml #cloud-config # Red avanzada de configuración de red: Versión: 2 ethernets: ens18: dhcp4: direcciones falsas: - 10.0.10.201/24 gateway4: 10.0.10.1 servidores de nombres: direcciones: [1.1.1.1, 8.8.8.8] búsqueda: [ejemplo.com]
qm set 201 --cicustom "user=local:snippets/webserver-config.yaml,vendor=local:snippets/vendor-config.yaml"

Metadatos para la información específica de la máquina virtual

# Meta-Data también se puede configurar a través de API qm set 201 --tags "producción, servidor web, nginx"

Optimizar el rendimiento de la red

VirtIO Multi-Queue para un mejor rendimiento

# Activar varias colas (número = núcleos de CPU) qm set 100 --net0 virtio,bridge=vmbr0,queues=4 # Para cargas muy elevadas: Optimizar el procesamiento de paquetes qm set 100 --net0 virtio,bridge=vmbr0,queues=8,mtu=9000

¿Qué significa eso? Multi-queue distribuye interrupciones de red a través de múltiples núcleos de CPU. Una sola cola utiliza solo un núcleo para E/S de red.

SR-IOV para un rendimiento de hardware dedicado

# Pase el dispositivo PCI directamente (mayor rendimiento) qm set 100 --hostpci0 0000:01:00.0,pcie=1 # Con ROM-BAR para una mejor compatibilidad qm set 100 --hostpci0 0000:01:00.0,pcie=1,rombar=1

¿Cuándo usar SR-IOV? Para aplicaciones de alto rendimiento como firewalls, balanceadores de carga o si necesita características nativas de NIC.

Monitoreo maestro y solución de problemas

Supervise sistemáticamente los archivos de registro importantes

# Proxmox core logs tail -f /var/log/daemon.log # Eventos generales del sistema tail -f /var/log/pve-firewall.log # Actividades de firewall tail -f /var/log/pveproxy/access.log # Accesos a la interfaz web # Registros específicos de VM (personalizar ID de VM) tail -f /var/log/qemu-server/100.log # Registros de VM 100 QEMU # Registros específicos del clúster tail -f /var/log/corosync/corosync.log # Cola de comunicación del clúster -f /var/log/pve-cluster/pmxcfs.log # Sistema de archivos de clúster

Monitorización del rendimiento como los profesionales

Herramientas CLI para monitoreo en vivo

# Descripción general del sistema con htop htop # E/S de disco en detalle iotop -ao # Muestra estadísticas acumulativas de E/S # Tráfico de red por nethogs de proceso # Top CPU consumidor ps aux --sort=-%cpu ?? cabeza -20 # Memoria-Uso detallado gratis -h && echo "---" && cat /proc/meminfo ?? grep -E "(MemTotal ?? MemFree ?? MemAvailable ?? Cached ??? Buffers)" # Rendimiento de almacenamiento de ensayo dd if=/dev/zero of=/tmp/testfile bs=1G count=1 oflag=dsync

Recuperar datos de RRD a través de API (para paneles propios)

# Uso de CPU para un nodo curl -k -H "Autorización: PVEAPIToken=root@pam!monitoring=euer-secret-here" \ "https://proxmox:8006/api2/json/nodes/proxmox1/rrddata?timeframe=hour&cf=AVERAGE" # Métricas específicas de VM curl -k -H "Autorización: PVEAPIToken=root@pam!monitoring=euer-secret-here" \ "https://proxmox:8006/api2/json/nodes/proxmox1/qemu/100/rrddata?timeframe=day" # Métricas de almacenamiento curl -k -H "Autorización: PVEAPIToken=root@pam!monitoring=euer-secret-here" \ "https://proxmox:8006/api2/json/nodes/proxmox1/storage/local-lvm/rrddata"

Solución de problemas comunes: soluciones probadas

Problema: «ERROR DE LA TAREA: Falló el comando “lvcreate”»

# Comprobar el estado del almacenamiento df -h lvs --all vgs # LVM-Thin Pool extender lvextend -L +50G /dev/pve/datos # o porcentaje lvextend -l +100%GRATIS /dev/pve/datos # Cuando la piscina está llena: # Primero detenga las máquinas virtuales y elimine las instantáneas qm list qm stop VMID qm delsnapshot VMID snapshot-name

Problema: La máquina virtual no se inicia: faltan los módulos KVM

# Compruebe el soporte de virtualización egrep -c '(vmx ?? svm)' /proc/cpuinfo # Debe ser > 0 # Los módulos KVM cargan manualmente modprobe kvm modprobe kvm-intel # CPU de Intel # o modprobe kvm-amd # CPUs de AMD # Activar permanentemente el eco "kvm" >> /etc/modules echo "kvm-intel" >> /etc/modules # o kvm-amd # Compruebe lsmod ?? grep kvm

Problema: High I/O-Wait supera el rendimiento

# Analizar las estadísticas de E/S en detalle iostato -x 1 5 # Monitor durante 5 segundos # Límites de E/S específicos de VM establecidos qm set 100 --scsi0 local-lvm:vm-100-disk-0,mbps_rd=100,mbps_wr=50,iops_rd=1000,iops_wr=500 # I/O-Niza para máquinas virtuales individuales qm set 100 --scsi0 local-lvm:vm-100-disk-0,iothread=1

Problema: Fuera de memoria mata (OOM)

# Comprobar el exceso de compromiso de la memoria grep -i oom /var/log/kern.log # Equilibrio de memoria VM personalizar sqm set 100 --balloon 0 # Globo desactivar qm set 100 --shares 2000 # Mayor prioridad de CPU # Optimizar la memoria del host echo 1 > /proc/sys/vm/overcommit_memory # Sobrecompromiso agresivo

Construir clústeres de alta disponibilidad

Configuración de clúster de 3 nodos - Listo para la producción

# Nodo 1 (inicializar clúster) pvecm crear production-cluster --bindnet0_addr 192.168.1.10 --ring0_addr 192.168.1.10 # Nodo 2 join pvecm add 192.168.1.10 --ring0_addr 192.168.1.11 # Nodo 3 unir pvecm añadir 192.168.1.10 --ring0_addr 192.168.1.12 # Validar el estado del clúster pvecm status pvecm nodos

Configurar vallas para la protección del cerebro dividido

# Habilitar Hardware Watchdog echo "softdog" >> /etc/modules update-initramfs -u # IPMI-Fencing konfigurieren (empfohlen für Production) ha-manager añadir cercado-dispositivo ipmi-node1 \ --options "lanplus=1,username=admin,password=secret,ip=192.168.100.10" ha-manager añadir cercado-dispositivo ipmi-node2 \ --options "lanplus=1,username=admin,password=secret,ip=192.168.100.11" ha-manager añadir cercado-dispositivo ipmi-node3 \ --options "lanplus=1,username=admin,password=secret,ip=192.168.100.12" # Configure HA services ha-manager add vm:100 --state started --node node1 --max_restart 2

Configuración del almacenamiento compartido para HA

# Clúster Ceph para almacenamiento interno ceph-deploy nuevo nodo1 nodo2 nodo3 ceph-deploy instalar nodo1 nodo2 nodo3 ceph-deploy mon create-initial # O almacenamiento externo NFS/iSCSI pvesm añadir nfs shared-nfs --server 192.168.1.200 --export /storage/proxmox \ --content images,vztmpl,backup # Configurar la replicación de almacenamiento pvesr create-local-job 100-0 node2 --schedule "*/15"

Transmisor de GPU para usuarios avanzados

Habilitar IOMMU correctamente

# Editar GRUB config vim /etc/default/grub # Para CPU Intel: GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on iommu=pt pcie_acs_override=downstream,multifunción" # Para CPUs AMD: GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on iommu=pt pcie_acs_override=downstream,multifunción" # Actualización y reinicio de GRUB update-grub reboot

Listas negras de GPU y asignación de máquinas virtuales

# Buscar GPU PCI IDs lspci -nn ?? grep -i nvidia # Resultado del ejemplo: 01:00.0 Controlador compatible con VGA [0300]: NVIDIA Corporation TU104 [GeForce RTX 2080] [10de:1e82] # Host driver blacklisten echo "blacklist nouveau" >> /etc/modprobe.d/blacklist.conf echo "blacklist nvidia*" >> /etc/modprobe.d/blacklist.conf # Los módulos VFIO cargan eco "vfio" >> /etc/modules echo "vfio_iommu_type1" >> /etc/modules echo "vfio_pci" >> /etc/modules echo "vfio_virqfd" >> /etc/modules # GPU to VFIO bind echo "options vfio-pci ids=10de:1e82,10de:10f8" > /etc/modprobe.d/vfio.conf update-initramfs -u reboot # GPU a VM pase sqm set 100 --hostpci0 0000:01:00.0,pcie=1,x-vga=1 # Para multi-GPU: Ambas funciones PCI qm set 100 --hostpci0 0000:01:00.0,pcie=1,x-vga=1 qm set 100 --hostpci1 0000:01:00.1,pcie=1 # Parte de audio de la GPU

Solucionar problemas de transmisión de GPU

# Compruebe los grupos IOMMU para d en /sys/kernel/iommu_groups/*/devices/*; hacer n=${d#*/iommu_groups/*}; n=${n%%/*} printf 'Grupo IOMMU %s ' "$n" lspci -nns "${d##*/}" hecho # Solución de errores de restablecimiento de GPU echo "options vfio-pci disable_vga=1" >> /etc/modprobe.d/vfio.conf # Reinicio del proveedor para GPU AMD git clone https://github.com/gnif/vendor-reset.git cd vendor-reset make && make install echo "vendor-reset" >> /etc/modules

Estrategias de backup para profesionales

Trabajos de copia de seguridad automatizados

# Copia de seguridad diaria de todas las máquinas virtuales pvesh create /cluster/backup --schedule "02:00" --mode snapshot \ --compress lzo --node proxmox1 --storage backup-nfs --all 1 \ --mailto admin@example.com # Copias de seguridad incrementales para máquinas virtuales grandes pvesh create /cluster/backup --schedule "06:00" --mode snapshot \ --compress zstd --node proxmox1 --storage backup-nfs \ --vmid 100,101,102 --bwlimit 50000

Replicación de copia de seguridad externa

# Configurar PBS (Proxmox Backup Server) pvesh create /cluster/storage --storage pbs-backup --type pbs \ --server backup.example.com --datastore proxmox-backups \ --username backup@pbs --password secret --fingerprint XX:XX:XX... # Configurar la retención de copias de seguridad pvesh set /cluster/backup/backup-job-id --prune-backups "keep-daily=7,keep-weekly=4,keep-monthly=6"

Este smorgasbord cubre algunos aspectos importantes que necesita para implementaciones profesionales y rápidas de Proxmox. Desde la automatización en la nube hasta los clústeres de GPU de alta disponibilidad, encontrará soluciones probadas y comprobadas para desafíos del mundo real.

Finalización y recursos avanzados

Proxmox es una herramienta poderosa, pero con gran poder viene una gran responsabilidad. (winker) Las mejores prácticas que se muestran aquí son el resultado de la experiencia en la práctica. Comience con lo básico y gradualmente trabaje hasta llegar a las funciones avanzadas.

Sus próximos pasos:

  1. Construir un entorno de prueba / estadificación: Pruebe todas las configuraciones en un entorno separado
  2. Implementar el monitoreo: Supervise su sistema desde el principio
  3. Estrategia de copia de seguridad de prueba: Realiza pruebas de restauración periódicas
  4. Únete a la Comunidad: El foro de Proxmox es muy útil

Así que recuerda: Tómese su tiempo, lo básico Entiende antes que tú Configuraciones más complejas se desvanece. El Guía de administración de Proxmox Como sitio web que he enlazado varias veces en el artículo como referencia también vale oro. Echa un vistazo en el foro alrededor, Si tiene alguna pregunta. También hay un punto de entrada para Canal de YouTube. Para aquellos de ustedes que están en el entorno empresarial: Los creadores de Proxmox también ofrecen cursos de capacitación.

Las partes restantes de esta serie de artículos que también he vinculado aquí de nuevo para usted: Parte 1: red | Parte 2: almacenamiento | Parte 3: respaldo | Parte 4: seguridad | Parte 5: rendimiento

Y lo más importante de nuevo al final:
Siempre tenga una copia de seguridad que funcione.