Direkt zum Hauptinhalt

ProxMox

Inhaltsverzeichnis

Proxmox Workshop 20230926 und 20230928

26.09.2023

28.09.2023

Proxmox Workshop 20230926 und 20230928

Kostenpflichtiger Link für Videos

26.09.2023

  • Kein RAID Controller 
  • Platten direkt an Proxmox geben 
  • ISO Installation mit Version 7.x

    ◦Install Proxmox
    ◦Target Harddisk sda / sda —> ext4 mit LVM - daher auf options (ALT o) 
    • ‣ ZFS RAID 1 oder ZFS RAID 10 
    • ‣ Festplatten müssen gelesen werden 
    • ‣ Advanced Option - ZFS Optionen 
    • ‣ Passwort muss sich in der HTML Console tippen lassen - Thomas Krenn Server sind da

      zickick 
  • Proxmox Boot-Tool kann hilfreich sein 
  • https://<ip>:8006
    ◦Single PAM - ssh login in
    ◦Proxmox VE - Weboberfläche Cluster 
  • /etc/ssh/sshd_config ◦PermitRootLogin without-password 
  • TOTP (... one Time Password) 
  • Postinstall aus bashclub - github

    ◦No Subscription auswählen
    ◦96 hours wegen Weihnachten und Ostern
    ◦Backup /etc zfs dataset rpool/pveconf - Configuration liegt in einer Datenbank ◦... 

• Update nach Proxmox 8.x

◦pve7to8

◦pve7to8 -- full ◦...

  • Proxmox Update nach Anleitung von ProxMox - Subscription bzw. Nosubsription beachten 
  • Nach Kernel Update - reboot einplanen 
  •     dmesg -w # oder 
        dmesg -Tw # - Hardware Tausch 
        ProxMox-boot-tool 
        proxmox-boot-tool status 
        zpool upgrade 
        zpool upgrade -a # führt das Upgrade durch 
        # ZFS trim einschalten 
        zpool set autotrim=on rpool # Freigabe leerer Blöcke ◦zpool trim rpool
        zpool status 1 
    
    

  • Template Ordner /var/lib/vz
  • ISO Ablage Ordner  /var/lib/vz/template/iso
    ◦z.B. virtio-win.iso 
  • Cache /var/lib/vz/cache/ z.B. *.tar.gz Proxmox Mailgateway 
  • PVE boot nicht mehr 

◦CD bzw. ISO booten - ...Debug ...

  • exit - damit nicht der Installer bootet 
      zpool status 
      zpool import  zpool import rpool  zpool import -fa # a für all 
      zpool import -f rpool 
      zpool status 
      zpool list  zfs list -t snapshot  zfs list -t snapshot | grep pve-1 
      zfs rollback -r rpool/ROOT/pve-1@zfs-auto-snap.hourly_2023-hourly\_2023-09-26-1251    \
      # entsprechender snapshot - boot und Proxmox geht wieder
    
  • ‣ data zurück rollen 

 

zfs rollback -r rpool/data@... (?) #  data/vm... zurück rollen

  • Verschlüsseltes ZFS ◦zfs-load-key

    ◦Replication raw - Chriz Software unterstützt das ...

  • PVE Grafik

    ◦local

    ◦local-ZFS

  • VM auf RAID-Z 8k versus 16k

    ZFS create rz_repel/rz\_repel/vmtest ZFS create V 10G rz_repl/rz\_repl/vmtest/disk8k # Keine RAID5 für VM‘s -    \
      langsam wegen 8k ◦RAID5 min. 16K einstellen


    ◦Local-ZFS Einstellung auf min. 16K einstellen ◦Proxmox Standard volblocksize=8k
    ◦Siehe awo.de Tabelle - Artikel ZFS RAID

  • VirtIO Treiber im Internet finden ... - proxmox windows driver im Browser suchen ◦Auf ProxMox Seite nach stable suchen
    ◦Link kopieren
    ◦In ProxMox GUI - Download URL eintragen

‣ Filename: VirtIO-win.iso
◦ISO Ablage Ordner **/var/lib/vz/**template/iso

• ProxMox Virtual Treiber - für Windows iso

◦Create VM
‣ System

  • Maschine q35 
  • BIOS: OVMF (UEFI) 
  • Emu Agent 
  • EFI Storage: local-zfs

    ‣ Disks 
  • Bus/Device: SCSI # VirtIO Block ist obsolet !!! 
  • SCSI - VirtIO SCSI Single - SCSI steht für SCSI Controller auf der vorseite - kann ein

    Prozessorkern pro Festplatte 
  • Discard 
  • SSD emulation 
  • Cache: - Default (no cache) - keine Cache einschalten !!!

    ‣ CPU 

• Type: Host

‣ Network

  • Bridge: vmbr0 
  • Model VirtIO (paravirtualized) ◦GUI - vm - Hardware - CD/DVD

    ‣ Zweites CD Laufwerk VirtIO Treiber iso ◦GUI - vm - Hardware - Maschine 

‣ q35 Version 5.2 - weniger Probleme als mit 8.0 wegen deutschen Treibern - ist für US optimiert ... - Probleme mit Netzwerkkarten

◦EFI hat feste Bildschirmauflösung - kann nur in der EFI der VM eingestellt werden (EFI BIOS) - Im BIOS ESC drücken

◦Windows Installer
‣ Treiber - Virtualio SCSI laden - vioscsi - win10 - amd64

• vm-<id vm>-disk-0 EFI BIOS - speichert z.B. Bildschirmauflösung - z.B. zd0

  • vm<id-vm>-disk-1 Windows 10 - z.B. zd16
    ◦Windows partitioniert die „disk-1“ in 3 Partitionen - während der Installation 
    • ‣ p1: EFI 
    • ‣ p2: Microsoft reserved 
    • ‣ p3: Microsoft basic data 
  • Windows ohne Netzwerk = keine dummen Tools 
  • Windows ohne Passwort = keine Fragen 

• Wichtig für den Start der VM

◦Pool muss online
◦Pool unter 80 %
◦Definition der Datenstorages unter cat /etc/pve/storage.cfg ◦PVE Server 101.conf - unter cat /etc/pve/qemu-server/101.conf ◦Virtual CD - fehlende Treiber - 1 Controller pro Festplatte

  • Virtio-win-guest-tools - evtl. Erweiterung exe sichtbar - installierten - installiert alles - liegt im Hauptverzeichnis der CD/DVD - am Ende auch die Guest-Tools 
  • Reale Memory Anzeige, CPU Usage und IP Adressen ◦Deinstallation der Apps

    Powershell 

 

Get-appxPackage | Remove-appxPackage # man verliert Taschenrechner - alle App

werden entfernt - auch der Storage wird entfernt ‣ Nach Feature Update wieder alles da

◦Festplatte vergrößern
‣ Resize 16 GB - bedeutetet +16 GB

• Auf PVE

cd /dev/zvol/rpool/data 
ls -alter

Wiederherstellungspartiions an das Ende verschieben oder löschen • /dev/zvol/...

  •     cfdisk # - Partition löschen 
    
    

  • Partition in Windows Erweitern 
    ◦Unter Linux VM ausschalten, resize geht nicht immer Fehlerfrei 
    • ‣ Datenträger neue Größe 
    • ‣ Explorer noch alte Größe 
  •     zfs history 
        cd /dev/zvol/rpool/data 
        ls -althr 
    
    

‣ SSD Emulation / Discard • Defragemtieren

◦Unter Einstellungen ändern: Auf einmal täglich einstellen ‣ Windows Swap optimieren - powershell

  •     attrib 
        powercfg -h off # evtl. Darf es der User nicht - powershell als administrator starten 
        zfscreate-o com.sun:auto-snapshot=false rpool/swap # keine  autosnapshots!!! 
    
    

  • ◦PVE rpool/swap in der GUI - Add ZFS 
    • ‣ ID: rpool-swap 
    • ‣ ZFS Pool: rpool/swap 
    • ‣ Content: Disk Image 
    • ‣ Thin provision Haken setzen ! 
    • ‣ Block Size: 16K 
  • Add Hard Disk: ◦Disk Size: 8 G

    ◦Storage: rpool-swap
    ◦SSD emulation
    ◦Discard
    ◦Backup haken ? Herausnehmen ? - Backup: ja - Replication: nein 

• Im PVE add ZFS

◦ID: rpool-swap
◦ZFS Pool: rpool/swap ◦Content: Disk Image ◦Thin provision: Haken ◦Block Size: 16K

  • PVE Add Hard Disk
    ◦Bus/Device: SCSI
    ◦Storage: rpool-swap
    ◦Disk size (GiB): 8
    ◦SSD emulation: Haken
    ◦Discard: Haken
    ◦Backup: Haken - auf jedenfall bei Linux - Windows braucht die Partition nicht, bei

    Replication: nein, Backup: ja 
  • Nach neuer Hardware suchen - Evtl. Bug - Hotswap - bei SCSI Controller VirtIO SCSI

    würde er ihn direkt erkennen
    ◦Neuer Speichercontroller gefunden 
  • Neues Laufwerk a: oder b: # Niemand braucht a: oder b: mehr 
  • Auslagerungsdatei auf a: ändern und c: herausnehmen ◦Checkliste Platz

     

• Linux in crontab /sbin/fstrim -av - für Linux VM

◦crontab -e
0 0 * * * /sbin/fstrim -a

◦fstrim -av # muss eine Ausgabe bringen - sonst vm falsch konfiguriert \
  • VM Platten auf SSD und Discard umstellen


◦Wenn 8k und RAID 5 —> neuer datastore 16k und move disk
◦Wenn die in vm —> Treiber rein, runter fahren deatach, attach mit ssd / discard >

Optimierungen

◦Page file wie oben erklärt
◦Dann daily optimieren, Platz wird nach spätestens nach 3 Monaten frei, optional snapshot

löschen
◦Optional vacuum auf Datenbanken

28.09.2023

Workshop 2023-09-28 • Platten replacement

◦Artikel von ProMox - ist nicht ganz korrekt: https://pve.proxmox.com/wiki/ZFS_on_Linux

zpool set autoexpand=on rpool # Erweiterung des Pools, wenn alle Platten getauscht ◦sgdisk /dev/sdb -R /dev/sda #

Partitionstabelle kopieren

cfdisk /dev/sda # Partition vergrößern

sgdisk -G /dev/sda # EFI: neuer Fingerabdruck, damit EFI zu recht kommt 
proxmox-boot-tool format /dev/sda2 # format die Bootpartition (Partition 2) - Windows

Dateisystem (vat)

proxmox-boot-tool init /dev/sda2
proxmox-bool-tool status
◦proxmox-boot-tool clean # wirft Platten heraus, \
  die er nicht mehr kennt
update-initramfs -u # alte Variante - wegen aktuellen \
  Bug - nur eine Platte bootet über status ◦apt install systems-boot # systemd-boot fehlt nach Update von 7.x auf 8.x
zpool replace rpool ata-INTEL-...-part3 ata-ST2000...-part3 \
  # „alte Platte“ „neue Platte“ ◦zpool status
zpool status 1


◦Im Einspielvorgang resilver Vorgang

  • ‣ ZFS interessiert das nicht - Hardware RAID böse !!! 
  • ‣ Nach dem Reboot geht das Einspiegeln weiter ... ◦Zweite HDD in freien Slot stecken 

‣ Nach dem Booten können die Festplatten einen anderen Buchstaben bekommen haben, so

wie er sie erkannt hat

sgdisk /dev/sdb -R /dev/sdd
sgdisk -G /dev/sdd
zpool status
proxmox-boot-tool format /dev/sdd2
proxmox-boot-tool init /dev/sdd2
proxmox-boot-tool status
zpool status


Cockpit ZFS nur zum schauen - kein two Factor !! - aus Postinstall Proxmox - Achtung neuer

  • wget \    https://raw.githubusercontent.com/bashclub/proxmox-zfs-postinstall/main/install-cockpit-zfs-manager 
    bash install-cockpit-zfs-manager

    ‣ https://<ip>:9090

    • root user kann sich nicht per Passwort einloggen
      ◦Temporär in der /etc/ssh/ssd_conf ändern # keine EmpfehlungKey muss irgendwo hinterlegt werden # nur zum lernen !!!

    • z.B. für das zum Zurückspielen einer VM - VM muss vorher im Proxmox gestoppt werden

      zpool replace ... # löscht Platte !!! zpool attach rpool ata-... # neue Platte erst hinzufügen zpool detach ... # Schublade - Backup zpool attach rpool ata-INTEL-SSD..-part3 ata-ST2000...-part3 # hängt die HDD hinter die SSD ◦zpool status # 3 Platten im mirror-0 !!!


      SSD HDD Hard herausziehen und anschließend detach der Platte

      
      
zpool status
zpool detach rpool ata-INTEL-SDD...-part3
proxmox-boot-tool status 
proxmox-boot-tool clean
proxmox-boot-tool status
zpool status # rpool hat jetzt 1.82 TB - Pool vergrößert
arcstat
vi /etc/modprobe.d/zfs.conf
proxmox-boot-tool refresh # in den Images wird der Cache auf den neuen Wert gesetzt, ZFS

muss das vor wissen bevor es boot, zfs.conf liegt auf ZFS • Windows kaputt machen - Trojaner

◦Netwerkkarte disablen durch Trojaner
◦VM herunterfahren
◦Entwicklung der Größe der snapshot‘s - als Indikator ◦Rollback snapshot über Cockpit oder über command Line

• Cache

zpool add -n rpool cache ata-intense..
zpool add -nf rpool cache ata-intense.. # wenn schon Daten auf der Platte ◦zpool add -f rpool cache ata-intense..
zpool iostat -v 3
zpool iostat -v 1 # 1 sec

• Proxmox Cluster
◦GUI - Cluster - create cluster ◦pvecm create „clustername“ ◦GUI - Cluster - „add Cluster“ ◦pvecm add clusterserver1 ◦Kein Cluster mehr

https://pve.proxmox.com/wiki/Cluster_Manager#_remove_a_cluster_node

Goto: First, stop the corosync and pve-cluster services on the node:◦

cd /etc/pve


‣ storage.cfg

  • ‣ qemu-server/*.conf

  • ‣ lxc/*.conf

  • ‣ nodes/... # Ordner mit den Cluster Member
    ```

    top 
    ps aux 
    ps aux | grep qm # Herstellung aller Maschinen anhand dieser Ausgabe 

  • ‣ Login in Cluster funktioniert nach Fehlschlag nicht mehr

 

service pveproxy restart


◦Neue Zertifikat - zwei Faktor Authenfication der lokal User liegt heraus

cd /rpool/pveconf 
zfs list -t snapshot rpool/ROOT/pve-1 


zfs rollback -r rpool/ROOT/pve-1@zfs-auto-snap_hourly-2023-09-28-1017 # panic Variante und Stromkabel nach 2 s

  • 2.
    1. besser von cd booten, rollback wie oben
  • 3.
    1. Ordner .zfs unter /rpool/pveconf 
    2.     cd snapshot # dieser Ordner nur in dataset roots 
          # Snapshot order auswählen 
          ◦ cd zfs-auto-snap_hourly-2023-09-28-0717
          ◦ cd etc/pve/nodes/pvews
          ◦ cd lxc
          ◦ ls 
          ◦ cp 100.conf /etc/pve/lxc
          ◦ cd ..
          ◦ cd qemu-server
          ◦ cp 101.conf /etc/pve/qemu-server
          ◦ # evtl. Alternativ cp 101.conf /etc/pve/nodes/pvews/qemu-server
          ◦ vi /etc/pve/nodes/pvews/qemu-server/101.conf # Anpassung von Namen 
      
      

    • Boot Partitionen löschen

    ◦Über dd

    dd if=/dev/zero of=/dev/sda2 bs=1M count=511 
    dd if=/dev/zero of=/dev/sdd2 bs=1M count=511 
    proxmox-boot-tool status 
    
    
    • Boot über CD/DVD - Advanced - debug mode console 

    ‣ Type exit - damit Installer nicht startet
    https://pve.proxmox.com/wiki/ZFS:_Switch_Legacy-Boot_to_Proxmox_Boot_Tool 

    • Repairing a System Stuck in the GRUB Rescue Shell
    ◦Repairing a System Stuck in the GRUB Rescue Shell
    ◦If you end up with a system stuck in the grub rescue> shell, the following steps

    should make it bootable again:
    ◦Boot using a Proxmox VE version 6.4 or newer ISO
    ◦Select Install Proxmox VE (Debug Mode)
    ◦Exit the first debug shell by typing Ctrl + D or exit
    ◦The second debug shell contains all the necessary binaries for the following steps ◦Import the root pool (usually named rpool) with an alternative mountpoint of /mnt: 

    zpool import -f -R /mnt rpool
    zfs list # Chris im Video
    
    
    

    ◦Find the partition to use for proxmox-boot-tool, following the instructions from

    Finding potential ESPs
    ◦Bind-mount all virtual filesystems needed for running proxmox-boot-tool: ◦

    mount -o rbind /proc /mnt/proc
     mount -o rbind /sys /mnt/sys
     mount -o rbind /dev /mnt/dev
     mount -o rbind /run /mnt/run
     ◦ls /mnt # Video Chriz
    ◦change root into /mnt
    chroot /mnt /bin/bash

    • ‣ cat /etc/network/interfaces # Video Chriz 
    •     ‣  proxmox-boot-tool status 
          ‣  lsblk 
          ‣  proxmox-boot-tool format /dev/sdb2 
          ‣  proxmox-boot-tool format /dev/sdc2 
          ‣  proxmox-boot-tool init /dev/sdb2 
          ‣  proxmox-boot-tool init /dev/sdc2 
          ‣  proxmox-boot-tool status 
          ‣  proxmox-boot-tool clean 
          ‣  zpool export rpool # hat im Video gefehlt, daher nach reboot zpool import -f rpool 
      
      

    • ‣ <CTRL> <ALT> <ENF> # reboot auslösen 
    • ‣ zpool import -f rpool # letzter Besitzer war CD 
      ‣ exit # erneuter reboot 
      ‣ zpool status
      
    • ‣ Wichtige Dateien:

      • /etc/network/interfaces • storage.cfg
      • qemu-server/*.conf
      • lxc/*.conf 

    • Boot Partitionen löschen ◦cfdisk /dev/sdb

    ‣ Partition 1 in dPartition 2 löschen ◦cfdisk /dev/sdc

    ‣ Partition 1 in dPartition 2 löschen ◦reboot

    ◦Proxmox neu installieren auf cache SSD ohne zfs ‣ Boot von CD

    ‣ Install Proxmox ohne ZFS auf SSD

    • Würde mit ZFS installiert, hätten wir wieder ein rpool und müssten den original Pool rpool in z.B. rpool1 umbenennen und local-zfs anpassen !!!! 
    • Profi Tipp: Alle anderen Platten ziehen, damit auf keiner falschen Installiert wird 
    • Installation mit ext4 mit lvm 
    • Neues Zertifikat und Passwort neu 
    • ssh meckert wegen known_hosts # Neu Installation 
    • zfs list # zeigt leere Liste 
    •     zpool import -fa # alle importieren 
          zfs list # rpool ist wieder da 
          cd /rpool/pveconf 
          cd etc 
          cd pve 
          ls 
          cp storage.cfg /etc/pve 
          cd qemu-server 
          cp 101.conf /etc/pve/qemu-server # Produktiv System cp *.conf /etc/pve/qemu- 
          server 
          cd .. 
          cd lxc 
          cp 100.conf /etc/pve/lxc # Produktiv System cp *.conf /etc/pve/lxc 
      
      

    • ISO‘s als DVD heraus werfen, da vermutlich nicht gesichert 
    • ‣ zpool remove rpool add # cache ssd entfernen # atach und detach nur mirror - alles andere wird removed 
    • ‣ Am Abend wieder heile machen 
      • Booten von CD/DVD 
      • Advanced Mode - Debug mode

        ◦Partitionstabelle wiederherstellen 

    ‣ Anderen Proxmox schauen

    • https://pve.proxmox.com/wiki/ZFS:_Switch_Legacy- Boot_to_Proxmox_Boot_Tool  

    ◦Repairing a System Stuck in the GRUB Rescue Shel ◦

    zpool import -f -R /mnt rpool
    ◦zfs list # Chris im Video
    
    


    ◦Find the partition to use for proxmox-boot-tool, following the

    instructions from Finding potential ESPs
    ◦Bind-mount all virtual filesystems needed for running proxmox-

    boot-tool:

    mount -o rbind /proc /mnt/proc
    mount -o rbind /sys /mnt/sys
    mount -o rbind /dev /mnt/dev
    mount -o rbind /run /mnt/run
    chroot /mnt /bin/bash
    # Partitionstabelle eines anderen ProxMox Systems anschauen 
    sgdisk /dev/sdd -R /dev/sdb # muss resized werden
    cfdisk /dev/sdb
    
    

    ◦ Partition 3 wieder vergrößern # Werte überprüfen mit Foto falls vorhanden

    sgdisk /dev/sdb -R /dev/sdc
    sgdisk -G /dev/sdb
    sgdisk -G /dev/sdc
    
    


    ◦Änderungen haben nicht gegriffen - reboot erforderlich # alternativ

    parted - partedprobe bekommt das im laufenden Betrieb

    ◦Reboot
    ◦Evtl. mit proxmox-boot-tool Partitionen wieder herstellen, zuvor

    muss die ProxMox Umgebung über die chroot Umgebung gebaut werden ...

    Reboot
    zpool import -fa
    exit # reboot vom ProxMox 
    zpool status ◦proxmox-boot-tool status
    
    

    ◦3. Variante für Arbeiten
    ‣ Externe SSD - True NAS installieren - geht aber nur für VM‘s - VM‘s per SCSI freigeben

    • Backup ProxMox Datenbank
      cat /etc/cron.d > /pve-conf-backup

    rsync. ... /etc /rpool/pveconf # alle 15 min - ab 3 Minute • Import Daten

    ◦vmdk vhdx raw qcow2 > mounten vom original (vm aus!)

    • /mnt/pve/nfsstore oder smbshare
    • ◦zvol / lvm / usb / hdd /ssd
      ◦qm importdisk 100 /mnt/hypervfreigabe/dc.vhdx local-zfs (via samba)
      ◦qm importdisk 100 /mnt/pve/nfsstore/vmfs/id/dc/dc.vmdk local-zfs # (via NFS oder SSHFS) 
    • ◦Echte Systeme

    ◦Clonezilla
    https://pve.proxmox.com/wiki/Migration_of_servers_to_Proxmox_VE 

    • Clonezilla Live CDs
    ◦Disks erscheinen erst mal unused - mit Doppelclick hinzufügen und booten

    • Backup und Monitoring

    zfs list # Ziel Backup Disk - Pool Backup
    zfs create backup/repl -o com.sun:auto-snapshot=false 
    zfs set com.sun:auto-snapshot=false backup 
    Bash-club-zfs-push-pull # auf Ziel
    
    

    • git clone https://github.com/bashclub/bashclub-zfs-push-pull.git 
      cd bashclub-zfs-push-pull  chmod +x 02pull bashclub-zfs 
      cp bashclub-zfs /usr/bin  vi 02pull # Anpassen - In for Schleife ein echo zum Testen  bashclub-zfs # Parameter I und R - alte Snapshot und Zwischen snapshots mitnehmen  # Prinzipiell pull !!! - Quelle kommt nicht auf das Ziel, sondern nur Ziel kommt auf Quelle 
      cp 02pull /etc/cron.hourly
      
    • ‣ Monitoring 
    wget -O /usr/local/bin/checkzfs https://raw.githubusercontent.com/bashclub/check-zfs-replication/main/checkzfs.py  
    chmod +x /usr/local/bin/checkzfs 
    checkzfs --sourceonly 
    checkzfs --filter rpool/data/ --replicafilter backup/repl --threshold 75,90 
    checkzfs --filter rpool/data/ --replicafilter backup/repl --threshold 75,90 --columns 
    +message 
    
    
    • wget -O /usr/local/bin/checkzfs https://raw.githubusercontent.com/bashclub/check-zfs-replication/main/checkzfs.py
      • Keep: Hours 96, dayli 14 
      • ProxMox GUI

        ◦Storage - Add ZFS 
      •     cd /etc/pve/qemu-server 
            cp 101.conf 9101.conf 
            vi 9101.conf 
        
        

      • ◦:%s/local-zfs/backup-repl/g ◦Swap entfernen
        ◦DVD Laufwerke entfernen ◦Name am Anfang repl- anfügen 
    • GUI der VM 9101
      ◦Netzwerkkarte deaktivieren # Befehl kann man nachher in der conf nachschauen ◦Autostart disablen 
    • VM 9101 starten # aber Replikationszeit beachten - cron.hourly, ... beachten 
    • LXC Container kann mittlerweile die Netzwerkkarte deaktivieren - alternativ in anderen

      vswitch 
    •     checkzfs --filter rpool/data/ --replicafilter backup/repl --threshold 75,90 --columns 
          +message --output checkmk
            # Datei generieren und auf anderen Server kopieren - über scp 
          zfs mount -a 
          ls /backup/repl/subvol-100-disk-0/etc/pmg 
          mkdir /mnt/restore 
          mount /dev/zvol/backup/repl/vm-101-disk-1-part3 /mnt/restore 
          ls /mnt/restore # Damit kann man Daten aus dem Windows zurückspielen 
          umount /mnt/restore 
          zfs create backup/klon -o com.sun:auto-snapshot=false 
          zfs list -t snapshot backup/repl/vm-101-disk-1 
          zfs clone backup/repl/vm-101-disk1@bashclub-zfs_2023-09-28_16:21:30 backup/klon/vm-101-disk-1 
          mount /dev/zvol/backup/klon/vm-101-disk-1-part3 /mnt/restore 
          ls /mnt/restore 
          vi /etc/pve/qemu-server/9101.conf # Anpassung vom Klon 
      
      

    • VM aus Klon booten und sich anschauen ... 
    •     umount /mnt/restore 
          zfs get guid 
          zfs get guid | grep bashclub-zfs_2023-09-28_16:46:50 
          zfs get creation rpool/data/subvol-100-disk-0@bashclub-zfs_2023-09-28_16:46:50 
      
      

    • zfs replication für arme 


    zfs snapshot rpool/data/vm-100-disk-0@snap1 # snapshot auslösen - evtl. nicht komplettes Command
    
    


    zfs send rpool/data/vm-100-disk-0@snap1 | zfs recovery -dvF backup/repl # local 
    zfs send rpool/data/vm-100-disk-0@snap1 | ssh rot@zielip zfs recovery -dvF
    
    

    backup/repl # push


    ssh root@sourceip zfs send rpool/data/vm-100-disk-0@snap1 | zfs recovery -dvF backup/repl # pull
    
    

    • checkzfs mit Mail - dafür muss Mail konfiguriert sein

    checkzfs --filter rpool/data/ --replicafilter backup/repl \
    --threshold 75,90 --columns+message --output mail