Ottimizzazione delle prestazioni di Proxmox - Alcuni consigli utili per te
Ottimizzazione della CPU per le macchine virtuali per configurare correttamente il tipo di CPU host per le macchine virtuali
Quando si crea una VM, Proxmox utilizza un tipo generico di CPU per impostazione predefinita. Questo è compatibile, ma non ottimale per le prestazioni. Con il tipo di CPU «host», è possibile passare tutte le funzioni della CPU fisica alla VM:
qm set 100 --cpu host
Questa impostazione garantisce che la VM possa utilizzare tutte le funzionalità della CPU del sistema host, dai set di istruzioni dedicati all'accelerazione hardware. Ciò comporta notevoli vantaggi in termini di prestazioni, ma rende la VM meno portatile tra i diversi sistemi hardware.
In alternativa, è possibile scegliere un tipo di CPU specifico e aggiungere funzionalità specifiche:
qm set 100 --cpu "Haswell,+aes"
Qui viene utilizzato il tipo di CPU Haswell con crittografia AES. Questo è utile quando hai bisogno di un equilibrio tra prestazioni e compatibilità.
Consapevolezza NUMA per prestazioni di memoria migliori
Per i moderni sistemi multi-socket, NUMA (Non-Uniform Memory Access) è un importante fattore di prestazioni. Per prima cosa puoi visualizzare la topologia NUMA del tuo sistema:
numactl --hardware
Per le macchine virtuali con requisiti di prestazioni elevate, è necessario abilitare NUMA:
qm set 100 --numa 1 qm set 100 --memoria 8192 --prese 2 --core 4
Questa configurazione divide le risorse della VM in base ai nodi fisici NUMA. Ciò riduce la latenza della memoria e migliora le prestazioni complessive, in particolare per le applicazioni ad alta intensità di memoria.
Comprendere e applicare ottimizzazioni di memoria
Configura il ballooning in modo intelligente
Memory ballooning è una funzione intelligente che ridistribuisce dinamicamente la RAM tra host e VM. Per impostazione predefinita, è abilitato:
qm set 100 --palloncino 4096 # RAM minima
Questo valore determina la quantità di RAM che la VM mantiene almeno, anche se il sistema a palloncino è attivo. Per la maggior parte delle applicazioni, questo funziona bene e salva la RAM.
Tuttavia, per le macchine virtuali critiche per le prestazioni, è necessario disabilitare il ballooning:
qm set 100 --palloncino 0
Senza gonfiarsi, la macchina virtuale ha un accesso costante a tutta la sua RAM, fornendo prestazioni più coerenti, in particolare per le banche dati o le applicazioni in tempo reale.
Pagine enormi per carichi di lavoro ad alta intensità di archiviazione
Pagine enormi riducono l'overhead di gestione della memoria per le VM con molta RAM. Per prima cosa devi attivarlo sull'host:
echo 'vm.nr_hugepages=1024' >> /etc/sysctl.conf sysctl -p
Il numero dipende dalla RAM disponibile: ogni pagina enorme ha solitamente una dimensione di 2 MB. Poi li attivi per la VM:
qm set 100 --enormepagine 1g
Ciò è particolarmente vantaggioso per le VM con 8GB + RAM, in quanto migliora significativamente le prestazioni della memoria.
Ottimizzazione delle prestazioni di storage I/O
Schedulatore I/O per diversi tipi di memoria
Lo scheduler I/O decide come organizzare l'accesso al disco. Per gli SSD è mq-termine ottimale:
echo mq-deadline > /sys/block/sda/queue/scheduler
Gli SSD non hanno parti meccaniche, quindi è meglio un semplice programmatore. Per gli HDD, tuttavia, bfq (Budget Fair Queueing) meglio:
echo bfq > /sys/block/sdb/queue/scheduler
BFQ considera le proprietà meccaniche degli HDD e le ottimizza di conseguenza. Per rendere queste impostazioni permanenti, creare una regola udev:
cat > /etc/udev/rules.d/60-scheduler.rules << 'EOF' # SSD Scheduler ACTION=="aggiungi changechange", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="0", ATTR{queue/scheduler}="mq-deadline" # HDD Scheduler ACTION=="aggiungi changechange", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="1", ATTR{queue/scheduler}="bfq" EOF
Comprendere le modalità di cache del disco
Le modalità cache determinano come vengono gestite le operazioni di scrittura:
- writethrough: Ogni processo di scrittura viene immediatamente scritto sul disco rigido. Questo è molto sicuro, ma anche il più lento, in quanto è in attesa della conferma meccanica.
- writeback: Le operazioni di scrittura vengono prima memorizzate nella RAM e successivamente scritte sul disco rigido. Questo è molto più veloce, ma comporta il rischio di perdita di dati in caso di un'improvvisa interruzione di corrente.
- nessuno: Disabilita qualsiasi memorizzazione nella cache. Questo è l'ideale per i sistemi di storage condivisi come NFS o Ceph, dove il sistema di storage stesso prende il controllo della cache.
Applicare ottimizzazioni I/O specifiche per VM
I thread I/O esternalizzano le operazioni su disco per separare i thread:
qm set 100 --scsi0 local-lvm: vm-100-disk-0,iothread=1
Ciò riduce il carico della CPU sul thread principale della VM e migliora le prestazioni di I/O.
Per le massime prestazioni, è possibile attivare la cache di writeback:
qm set 100 --scsi0 local-lvm:vm-100-disk-0,cache=writeback
Per gli SSD, dovresti anche abilitare il supporto TRIM e le ottimizzazioni SSD:
qm set 100 --scsi0 local-lvm:vm-100-disk-0,discard=on,ssd=1
Questo discard=on Abilita i comandi TRIM che aiutano l'SSD a gestire le aree eliminate. Questo ssd=1 Flag dice alla VM che si tratta di un SSD, che attiva le ottimizzazioni interne.
Dovresti implementare queste ottimizzazioni passo dopo passo mentre monitori le prestazioni.
Non tutte le ottimizzazioni si adattano ad ogni carico di lavoro, quindi testa in un ambiente di sviluppo prima di adattare le VM di produzione.
Prestazioni di rete
Ottimizzazione di VirtIO:
# Attivare multi-queue mq set 100 --net0 virtio,bridge=vmbr0,queues=4 # SR-IOV per Hardware Dedicato qm set 100 --hostpci0 0000:01:00.0,pcie=1
Monitoraggio e risoluzione dei problemi
File di log importanti
# Proxmox-Logs coda -f /var/log/daemon.log # Generale Proxmox logs tail -f /var/log/pve-firewall.log # Il firewall registra la coda -f /var/log/pveproxy/access.log # Accesso all'interfaccia web # Coda dei log specifici della VM -f /var/log/qemu-server/100.log # VM 100 log # Cluster logs tail -f /var/log/corosync/corosync.log tail -f /var/log/pve-cluster/pmxcfs.log
Monitoraggio delle prestazioni (Salute del disco, Monitoraggio CEPH, Notifiche)
Strumenti di CLI:
# Utilizzo della CPU e della memoria htop # I/O disco iotop -ao # Nethogs di traffico di rete # Monitoraggio del processo ps aux --sort=-%cpu ?? testa -20
Recupera i grafici RRD tramite API:
# Utilizzo della CPU per Node curl -k -H "Autorizzazione: PVEAPIToken=root@pam!monitoring=SECRET" \ "https://proxmox:8006/api2/json/nodes/proxmox1/rrddata?timeframe=hour&cf=AVERAGE"
Problemi e soluzioni comuni
Problema: "ERRORE DEL TASK: comando “lvcreate” non riuscito»
# LVM-Thin Pool Full - Fare spazio lvs --tutto # Mostra piscine lvextend -L +50G /dev/pve/data # Ampliare la piscina
Problema: VM non si avvia – "kvm: Impossibile inserire il modulo»
# Moduli KVM caricano modprobe kvm modprobe kvm-intel # o kvm-amd # Attivare permanentemente echo kvm >> /etc/modules echo kvm-intel >> /etc/modules # o kvm-amd
Problema: Alta I/O-Wait alle macchine virtuali
# Controlla le statistiche di I/O iostat -x 1 # Limiti di I/O specifici della VM impostati qm impostati 100 --scsi0 local-lvm:vm-100-disk-0,mbps_rd=100,mbps_wr=50
Scenari estesi
Cluster ad alta disponibilità
Configurazione del cluster a 3 nodi:
# Su Nodo 1 pvecm creare mycluster # Sui nodi 2 e 3 pvecm aggiungere 192.168.1.10 # IP del nodo 1 # Controlla lo stato del cluster pvecm
Configurazione della recinzione (importante per evitare lo split-brain):
# Attiva il timer watchdog echo softdog >> /etc/modules update-initramfs -u # Configurare dispositivo di recinzione (ad esempio IPMI) ha-manager aggiungere recinzione-dispositivo ipmi --opzioni "lanplus=1,username=admin,password=secret,ip=192.168.1.100"
Passthrough della GPU per le macchine virtuali
Attiva IOMMU:
# /etc/default/grub GRUB_CMDLINE_LINUX_DEFAULT="tranquillo intel_iommu=on iommu=pt" # Intel # oppure GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on iommu=pt" # Riavvio di AMD update-grub
Passare la GPU alla VM:
# Visualizza dispositivi PCI lspci -nn ?? grep -i nvidia # Scollegare la GPU dal driver host echo "0000:01:00.0" > /sys/bus/pci/devices/0000:01:00.0/driver/unbind # A VM pass mq set 100 --hostpci0 0000:01:00.0,pcie=1,x-vga=1
Caratteristiche avanzate di Proxmox
Cloud init: Creazione di VM
Cos'è il Cloud-Init E perché dovresti usarlo?
Cloud-Init è il pacchetto standard de facto per l'inizializzazione delle istanze delle VM. Pensalo come una procedura guidata di configurazione iniziale intelligente che configura automaticamente le tue VM. Invece di copiare manualmente le chiavi SSH, configurare la rete e installare il software dopo ogni creazione di VM, Cloud-Init fa tutto al primo avvio.
Ciò non solo consente di risparmiare tempo, ma rende anche le distribuzioni delle VM riproducibili e resistenti agli errori. Cloud-Init consente la distribuzione dinamica delle istanze senza intervento manuale.
Creare un modello Cloud-Init - Il modo giusto
Fase 1: Scegliere l'immagine cloud giusta
Non tutte le immagini cloud sono uguali. Ecco alcuni esempi di download:
# Debian 12 (Bookworm) - Supporto stabile e a lungo termine wget https://cloud.debian.org/images/cloud/bookworm/latest/debian-12-generic-amd64.qcow2 # Debian 13 (Trixie) - Test, per le ultime funzionalità wget https://cloud.debian.org/images/cloud/trixie/latest/debian-13-generic-amd64.qcow2 # Ubuntu 24.04 LTS (Noble Numbat) wget https://cloud-images.ubuntu.com/noble/current/noble-server-cloudimg-amd64.img # Ubuntu 25.04 (Plucky Puffin) - Installazione minima wget https://cloud-images.ubuntu.com/minimal/releases/plucky/release/ubuntu-25.04-minimal-cloudimg-amd64.img
Pro tip: Le immagini minime sono molto più piccole e contengono solo i pacchetti assolutamente necessari. Perfetto per implementazioni container-like.
Fase 2: Creare e configurare correttamente la VM
# Creare VM con impostazioni ottimali qm creare 9000 --memory 2048 --cores 2 --name ubuntu-cloud-template \ --net0 virtio,bridge=vmbr0 --agent enabled=1 # VirtIO SCSI Controller - ESSENZIALE per le moderne distribuzioni Linux! qm set 9000 --scsihw virtio-scsi-pci # Importa immagine cloud (regola percorso!) qm set 9000 --scsi0 local-lvm:0,import-from=/path/to/noble-server-cloudimg-amd64.img # Aggiungi cloud init drive qm set 9000 --ide2 local-lvm:cloudinit # Set ordine barca qm set 9000 --boot order=scsi0 # Abilita console seriale (importante per Cloud Images!) qm set 9000 --serial0 socket --vga serial0 # Ingrandire il disco rigido (le immagini cloud sono spesso solo 2GB) qm disco ridimensionare 9000 scsi0 +8G # Contrassegna come modello qm modello 9000
Perché queste impostazioni specifiche?
- VirtIO SCSI: Le moderne immagini cloud si aspettano questo controller
- Console seriale: Le immagini cloud utilizzano spesso la console seriale invece di VGA
- Agente QEMU: Consente una migliore integrazione tra host e VM
- Ridimensionamento del disco: Le immagini cloud vengono volutamente mantenute piccole
Distribuire le macchine virtuali dal modello in modo intelligente
Distribuzione di base
# Template clone con nome significativo qm clone 9000 201 --name webserver-prod-01 --full # Cloud-Init configurazione di base qm set 201 --sshkey ~/.ssh/id_rsa.pub qm set 201 --ipconfig0 ip=10.0.10.201/24,gw=10.0.10.1 qm set 201 --nameserver 1.1.1.1 qm set 201 --searchdomain example.com qm set 201 --ciuser admin qm set 201 --cipassword $(openssl passwd -6 "SuperSafe password123!") # Avvio VM qm Avvio 201
Configurazione avanzata con dati utente personalizzati
Qui diventa davvero potente! Crea una configurazione cloud personalizzata:
# /var/lib/vz/snippets/webserver-config.yaml #cloud-config locale: Fuso orario it_EN.UTF-8: Europa/Berlino # Installare i pacchetti: - nginx - git - htop - curl - wget - unzip - vim - ufw # Configurare gli utenti utenti: - nome: gruppi di amministratori: [adm, sudo] sudo: ALL=(ALL) NOPASSWD:Tutto il guscio: /bin/bash ssh_authorized_keys: - ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAAB... # La tua chiave SSH qui # Configurare e avviare i servizi runcmd: - systemctl enable nginx - systemctl start nginx - ufw allow ssh - ufw allow 'Nginx Full' - ufw --force enable - sed -i 's/PasswordAuthentication yes/PasswordAuthentication no/' /etc/ssh/sshd_config - systemctl reload sshd # La pagina predefinita di Nginx sostituisce write_files: - percorso: contenuto di /var/www/html/index.html: |
<!DOCTYPE html>
<html>
<head><title>Web server pronto</title></head>
<body>
<h1>Il server è pronto!</h1>
<p>Distribuito su: $(data)</p>
</body>
</html>
# Riavviare il sistema dopo la configurazione power_state: Ritardo: 1 modalità: messaggio di riavvio: "Cloud-Init Setup completato, riavviare..."
Usa il modello con Custom Config:
qm set 201 --cicustom "user=local:snippets/webserver-config.yaml"
Funzionalità avanzate di init cloud
Dati del fornitore per configurazioni speciali
# /var/lib/vz/snippets/vendor-config.yaml #cloud-config # Rete avanzata di configurazione di rete: Versione: 2 ethernet: ens18: dhcp4: indirizzi falsi: - 10.0.10.201/24 gateway4: 10.0.10.1 nameserver: indirizzi: [1.1.1.1, 8.8.8.8] ricerca: [esempio.com]
qm set 201 --cicustom "user=local:snippets/webserver-config.yaml,vendor=local:snippets/vendor-config.yaml"
Metadati per informazioni specifiche sulle macchine virtuali
# Meta-Data può anche essere impostato tramite API qm set 201 --tags "produzione, server web, nginx"
Ottimizzare le prestazioni della rete
VirtIO Multi-Queue per una migliore produttività
# Attivare multi-queue (numero = core CPU) qm set 100 --net0 virtio,bridge=vmbr0,queues=4 # Per carichi molto elevati: Ottimizzare l'elaborazione dei pacchetti qm set 100 --net0 virtio,bridge=vmbr0,queues=8,mtu=9000
Cosa significa? Multi-queue distribuisce gli interrupt di rete su più core della CPU. La coda singola utilizza un solo core per l'I/O di rete.
SR-IOV per prestazioni hardware dedicate
# Passare il dispositivo PCI direttamente (massime prestazioni) qm set 100 --hostpci0 0000:01:00.0,pcie=1 # Con ROM-BAR per una migliore compatibilità qm set 100 --hostpci0 0000:01:00.0,pcie=1,rombar=1
Quando usare SR-IOV? Per applicazioni ad alte prestazioni come firewall, bilanciatori di carico o se hai bisogno di funzionalità NIC native.
Monitoraggio e risoluzione dei problemi
Monitorare sistematicamente i file di log importanti
# Proxmox core logs tail -f /var/log/daemon.log # Eventi generali di sistema tail -f /var/log/pve-firewall.log # Attività firewall tail -f /var/log/pveproxy/access.log # Accesso all'interfaccia web # log specifici della VM (personalizzare l'ID della VM) tail -f /var/log/qemu-server/100.log # VM 100 registri QEMU # Coda dei tronchi specifici del cluster -f /var/log/corosync/corosync.log # Coda di comunicazione cluster -f /var/log/pve-cluster/pmxcfs.log # File system a grappolo
Monitoraggio delle prestazioni come i professionisti
Strumenti CLI per il monitoraggio dal vivo
# Panoramica del sistema con htop htop # I/O disco in dettaglio iotop -ao # Mostra le statistiche di I/O cumulative # Traffico di rete per nethogs di processo # Top CPU consumer ps aux --sort=-%cpu ?? testa -20 # Memoria-Uso dettagliato libero -h && echo "--" && cat /proc/meminfo ?? grep -E "(MemTotal ?? MemFree ?? MemAvailable ?? Cached ??? Buffers)" # Prestazioni di memorizzazione di prova dd if=/dev/zero of=/tmp/testfile bs=1G count=1 oflag=dsync
Recuperare i dati RRD tramite API (per i propri dashboard)
# Utilizzo della CPU per un nodo curl -k -H "Autorizzazione: PVEAPIToken=root@pam!monitoring=euer-secret-here" \ "https://proxmox:8006/api2/json/nodes/proxmox1/rrddata?timeframe=hour&cf=AVERAGE" # metriche specifiche della VM curl -k -H "Autorizzazione: PVEAPIToken=root@pam!monitoring=euer-secret-here" \ "https://proxmox:8006/api2/json/nodes/proxmox1/qemu/100/rrddata?timeframe=day" # metriche di archiviazione curl -k -H "Autorizzazione: PVEAPIToken=root@pam!monitoring=euer-secret-here" \ "https://proxmox:8006/api2/json/nodes/proxmox1/storage/local-lvm/rrddata"
Risolvere problemi comuni – soluzioni collaudate
Problema: "ERRORE DEL TASK: comando “lvcreate” non riuscito»
# Controllare lo stato di archiviazione df -h lvs --all vgs # LVM-Thin Pool estende lvextend -L +50G /dev/pve/data # o percentuale lvextend -l +100%GRATIS /dev/pve/data # Quando la piscina è piena: # Prima fermata VMs ed eliminazione snapshots qm list qm stop VMID qm delsnapshot VMID snapshot-name
Problema: La VM non si avvia - mancano i moduli KVM
# Verificare il supporto per la virtualizzazione egrep -c '(vmx ?? svm)' /proc/cpuinfo # Dovrebbe essere > 0 # Moduli KVM caricano manualmente modprobe kvm modprobe kvm-intel # CPU Intel # o modprobe kvm-amd # CPU AMD # Attivare permanentemente echo "kvm" >> /etc/modules echo "kvm-intel" >> /etc/modules # o kvm-amd # Controllare lsmod ?? grep kvm
Problema: L'alta I/O-Wait batte le prestazioni
# Analizzare le statistiche di I/O in dettaglio iostat -x 1 5 # Monitor per 5 secondi # Limiti I/O specifici della VM impostati qm impostati 100 --scsi0 local-lvm:vm-100-disk-0,mbps_rd=100,mbps_wr=50,iops_rd=1000,iops_wr=500 # I/O-Nizza per singolo VMs qm set 100 --scsi0 locale-lvm: vm-100-disk-0,iothread=1
Problema: Uccisioni fuori dalla memoria (OOM)
# Controllare la memoria overcommitment grep -i oom /var/log/kern.log # Il bilanciamento della memoria della VM personalizza il set di mq 100 --balloon 0 # Palloncino disattivare qm set 100 --shares 2000 # Priorità CPU più alta # Ottimizzare la memoria host echo 1 > /proc/sys/vm/overcommit_memory # Impegno eccessivo aggressivo
Costruire cluster ad alta disponibilità
3-Node Cluster Setup - Pronto per la produzione
# Nodo 1 (inizializza cluster) pvecm crea production-cluster --bindnet0_addr 192.168.1.10 --ring0_addr 192.168.1.10 # Il nodo 2 unisce pvecm aggiunge 192.168.1.10 --ring0_addr 192.168.1.11 # Il nodo 3 unisce pvecm aggiunge 192.168.1.10 --ring0_addr 192.168.1.12 # Convalidare lo stato del cluster pvecm status pvecm nodi
Configurare recinzioni per la protezione del cervello diviso
# Abilita Hardware Watchdog echo "softdog" >> /etc/modules update-initramfs -u # Configurare la scherma IPMI (consigliata per la produzione) ha-manager add fencing-device ipmi-node1 \ --options "lanplus=1,username=admin,password=secret,ip=192.168.100.10" ha-manager add fencing-device ipmi-node3 \ --options "lanplus=1,username=admin,password=secret,ip=192.168.100.11" ha-manager add fencing-device ipmi-node3 \ --options "lanplus=1,username=admin,password=secret,ip=192.168.100.12" # Configurare i servizi HA ha-manager aggiungere vm:100 --state started --node node1 --max_restart 2
Configurazione dello storage condiviso per HA
# Ceph cluster per lo storage interno ceph-deploy nuovo node1 node2 node3 ceph-deploy install node1 node2 node3 ceph-deploy mon create-initial # Oppure pvesm di archiviazione NFS/iSCSI esterno aggiunge nfs shared-nfs --server 192.168.1.200 --export /storage/proxmox \ --content images,vztmpl,backup # Configurare la replica dello storage pvesr create-local-job 100-0 node2 --schedule "*/15"
Passthrough GPU per utenti esperti
Abilita IOMMU correttamente
# Modifica GRUB config vim /etc/default/grub # Per le CPU Intel: GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on iommu=pt pcie_acs_override=downstream,multifunzione" # Per le CPU AMD: GRUB_CMDLINE_LINUX_DEFAULT="quiet amd_iommu=on iommu=pt pcie_acs_override=downstream,multifunzione" # Aggiornamento e riavvio di GRUB update-grub reboot
Blacklist della GPU e assegnazione delle VM
# Trova GPU PCI IDs lspci -nn ?? grep -i nvidia # Esempio di output: 01:00.0 Controller compatibile VGA [0300]: NVIDIA Corporation TU104 [GeForce RTX 2080] [10de:1e82] # Il driver host blacklisten echo "blacklist nouveau" >> /etc/modprobe.d/blacklist.conf echo "blacklist nvidia*" >> /etc/modprobe.d/blacklist.conf # I moduli VFIO caricano l'eco "vfio" >> /etc/modules echo "vfio_iommu_type1" >> /etc/modules echo "vfio_pci" >> /etc/modules echo "vfio_virqfd" >> /etc/modules # GPU a VFIO legano l'eco "opzioni vfio-pci ids=10de:1e82,10de:10f8" > /etc/modprobe.d/vfio.conf update-initramfs -u reboot # GPU a VM passare mq set 100 --hostpci0 0000:01:00.0,pcie=1,x-vga=1 # Per multi-GPU: Entrambe le funzioni PCI qm set 100 --hostpci0 0000:01:00.0,pcie=1,x-vga=1 qm set 100 --hostpci1 0000:01:00.1,pcie=1 # Parte audio della GPU
Risolvi i problemi di passthrough della GPU
# Controllare i gruppi IOMMU per d in /sys/kernel/iommu_groups/*/devices/*; do n=${d#*/iommu_groups/*}; n=${n%%/*} printf 'Gruppo IOMMU %s " "$n" lspci -nns "${d##*/}" fatto # Risoluzione dei problemi relativi alla GPU echo "options vfio-pci disable_vga=1" >> /etc/modprobe.d/vfio.conf # Vendor reset for AMD GPUs git clone https://github.com/gnif/vendor-reset.git cd vendor-reset make && make install echo "vendor-reset" >> /etc/modules
Strategie di backup per professionisti
Lavori di backup automatizzati
# Backup giornaliero di tutte le VM pvesh create /cluster/backup --schedule "02:00" --mode snapshot \ --compress lzo --node proxmox1 --storage backup-nfs --all 1 \ --mailto admin@example.com # Backup incrementali per grandi VM pvesh create /cluster/backup --schedule "06:00" --mode snapshot \ --compress zstd --node proxmox1 --storage backup-nfs \ --vmid 100,101,102 --bwlimit 50000
Replica di backup esterno
# Configurare PBS (Proxmox Backup Server) pvesh create /cluster/storage --storage pbs-backup --type pbs \ --server backup.example.com --datastore proxmox-backups \ --username backup@pbs --password secret --fingerprint XX:XX:XX... # Configurare backup retention pvesh set /cluster/backup/backup-job-id --prune-backups "keep-daily=7,keep-weekly=4,keep-monthly=6"
Questo smorgasbord copre alcuni aspetti importanti necessari per implementazioni Proxmox professionali e veloci. Dall'automazione cloud-init ai cluster GPU ad alta disponibilità, troverai soluzioni collaudate per le sfide del mondo reale.
Completamento e risorse avanzate
Proxmox è uno strumento potente, ma con grande potenza arriva una grande responsabilità. (winker) Le migliori pratiche qui mostrate sono il risultato dell'esperienza pratica. Inizia con le basi e gradualmente lavora fino alle funzionalità avanzate.
I tuoi prossimi passi:
- Costruire un ambiente di testing/staging: Testare tutte le configurazioni in un ambiente separato
- Attuare il monitoraggio: Monitora il tuo sistema fin dall'inizio
- Strategia di backup di prova: Esegue regolari test di ripristino
- Unisciti alla Community: Il forum Proxmox è molto utile
Quindi ricorda: Prenditi il tuo tempo, le basi Comprendi davanti a te Impostazioni più complesse svanisce. Il Guida di amministrazione di Proxmox Come sito web ho collegato più volte nell'articolo come riferimento vale anche l'oro. Dai un'occhiata nel forum intorno, Se hai una domanda. C'è anche un punto di ingresso per Canale YouTube. Per quelli di voi che si trovano nell'ambiente aziendale: I creatori di Proxmox offrono anche corsi di formazione.
Le restanti parti di questa serie di articoli che ho anche collegato qui di nuovo per voi: Parte 1: rete | Parte 2: stoccaggio | Parte 3: rinforzi | Parte 4: sicurezza | Parte 5: prestazioni
E la cosa più importante di nuovo alla fine:
Avere sempre un backup funzionante.