# Ghid Conexiune SSH la Cluster Proxmox ## Informații Generale Cluster - **Nume Cluster:** romfast - **Număr Noduri:** 3 - **Status Quorum:** Activ (3/3 noduri) - **Transport:** knet - **Secure Auth:** on ### Noduri Cluster | Nod | IP | Status | Node ID | Descriere | |-----|-----|--------|---------|-----------| | pve1 | 10.0.20.200 | Online | 1 | Nod cluster 1 | | **pvemini (local)** | 10.0.20.201 | Online | 2 | **Nod principal (aici rulează LXC-urile)** | | pveelite | 10.0.20.202 | Online | 3 | Nod cluster 3 | ### Versiune Proxmox - **Versiune:** pve-manager/8.4.14/b502d23c55afcba1 (kernel: 6.8.12-15-pve) - **Utilizator SSH:** root ## Configurare Inițială SSH ### 1. Generare Cheie SSH (din WSL/Linux) ```bash # Generează cheie SSH RSA 4096-bit ssh-keygen -t rsa -b 4096 -C "your-email@example.com" # Locația default: ~/.ssh/id_rsa # Apasă Enter pentru locația default # Setează parolă opțională pentru cheie ``` ### 2. Copierea Cheii pe Proxmox ```bash # Metoda automată ssh-copy-id root@10.0.20.201 # Metoda manuală cat ~/.ssh/id_rsa.pub | ssh root@10.0.20.201 "mkdir -p ~/.ssh && cat >> ~/.ssh/authorized_keys" ``` ### 3. Testare Conexiune ```bash ssh root@10.0.20.201 ``` ## Storage Configuration ### Storage-uri Disponibile (Cluster) | Storage | Tip | Noduri | Status | Capacitate | Utilizat | Locație | Content | |---------|-----|--------|--------|------------|----------|---------|---------| | `local` | dir | **Toate** (separat pe fiecare) | active | 1.51 TiB | 128 KB | `/var/lib/vz` | ISO, templates, backup | | `local-zfs` | zfspool | **pvemini, pve1, pveelite** | active | 1.75 TiB | 324 GiB (18%) | `rpool/data` | **VM disks, LXC rootfs** | | `backup` | dir | **Doar pvemini** | active | 1.79 TiB | 333 GiB (18%) | `/mnt/backup` | Backup-uri principale | | `backup-ssd` | dir | **Doar pve1** | disabled | - | - | `/mnt/pve/backup-ssd` | Backup-uri SSD | | `backup-nfs` | nfs | - | disabled | - | - | NFS server 10.0.20.201 | - | | `backup-pvemini-nfs` | nfs | pve1, pveelite | disabled | - | - | NFS server 10.0.20.201 | - | ### Explicații Storage **`local` (Director local)** - **Scop:** ISO-uri, template-uri CT, backup-uri temporare - **Locație:** Fiecare nod are propriul `/var/lib/vz` SEPARAT - **Non-partajat:** Fișierele nu sunt vizibile între noduri - **Conținut:** ISO, vztmpl (templates), backup **`local-zfs` (ZFS Pool partajat)** - **Scop:** Storage PRINCIPAL pentru VM-uri și LXC-uri - **Pool:** `rpool/data` (ZFS) - **Partajat:** Disponibil pe pvemini, pve1, pveelite - **Conținut:** images (VM disks), rootdir (LXC root filesystems) - **Performanță:** Cea mai bună (ZFS + local storage) - **Sparse:** Enabled (economie spațiu) **`backup` (Director backup pe pvemini)** - **Scop:** Backup-uri principale job automat - **Locație:** DOAR pe pvemini (10.0.20.201) - `/mnt/backup` - **Non-partajat:** Accesibil doar pe pvemini - **Conținut:** Toate tipurile (VM, LXC, templates) - **Retention:** keep-all=1 (păstrează toate backup-urile) **`backup-ssd` (Director backup pe pve1)** - **Status:** Disabled - **Locație:** DOAR pe pve1 - `/mnt/pve/backup-ssd` **`backup-nfs` și `backup-pvemini-nfs`** - **Status:** Disabled - **Server NFS:** 10.0.20.201 (pvemini) - **Export:** `/mnt/backup` de pe pvemini - **Note:** Dezactivate - se folosește `backup` (director local) ### Căi Storage Important **Pe pvemini (10.0.20.201):** ```bash /var/lib/vz/ # local storage /var/lib/vz/dump/ # backup-uri local /mnt/backup/ # backup storage principal /mnt/backup/dump/ # backup-uri job automat rpool/data # ZFS pool pentru VM/LXC ``` **ISO-uri și Templates:** ```bash /var/lib/vz/template/iso/ # ISO-uri pe fiecare nod (local) /var/lib/vz/template/cache/ # LXC templates ``` ## Comenzi Utile Proxmox ### Gestiune VM-uri ```bash # Listare toate VM-urile qm list # Status VM specific qm status # Start/Stop/Restart VM qm start qm stop qm restart # Configurație VM qm config # Modificare configurație qm set --memory 4096 --cores 2 ``` ### Gestiune LXC Containers ```bash # Listare containere pct list # Status container pct status # Start/Stop container pct start pct stop # Configurație container pct config # Intrare în container pct enter ``` ### Gestiune Storage ```bash # Listare storage-uri pvesm status # Conținut storage pvesm list # Spațiu disponibil pvesm list local-zfs # Ștergere volum pvesm free ``` ### Gestiune Backup-uri ```bash # Listare backup-uri pvesh get /cluster/backup # Backup manual VM vzdump --storage backup --compress gzip # Restore backup qmrestore /path/to/backup.vma.gz --storage local-zfs # Căutare backup-uri pentru VM specific find /mnt/pve/backup-nfs/dump/ -name "**" | sort -V ``` ## Configurații Hardware Recomandate ### Pentru VM Windows 11 ```bash qm set --cpu host --cores 2 --memory 4096 --kvm 1 qm set --machine q35 --bios ovmf --ostype win11 qm set --net0 e1000=,bridge=vmbr0,firewall=1 qm set --virtio0 local-zfs:80,format=raw ``` ### Pentru VM Windows 7/10 ```bash qm set --cpu host --cores 2 --memory 4096 --kvm 1 qm set --machine pc-i440fx-2.12 --bios seabios --ostype win10 qm set --net0 virtio=,bridge=vmbr0,firewall=1 qm set --virtio0 local-zfs:60,format=raw ``` ### Pentru LXC Ubuntu/Debian ```bash pct set --cores 2 --memory 2048 pct set --net0 name=eth0,bridge=vmbr0,ip=dhcp,type=veth pct set --rootfs local-zfs:20 ``` ## Template-uri și ISO-uri Disponibile ### Windows ISO-uri - `Win11_24H2_Original.iso` - Windows 11 original (5.8GB) - `windows11rufus.iso` - Windows 11 modificat cu Rufus (5.8GB) - `windows10.iso` - Windows 10 (4.6GB) ### Drivere - `virtio-win-0.1.141.iso` - Drivere VirtIO pentru Windows ## Rețea ### Configurația Bridge - **Bridge:** vmbr0 - **Interfață Fizică:** enp87s0 - **IP Bridge:** 10.0.20.201/24 - **Gateway:** 10.0.20.1 - **Subnet:** 10.0.20.0/24 ### VM-uri și Containere Active #### LXC Containers (Proxmox pvemini - 10.0.20.201) | VMID | Nume | IP | CPU | RAM | Storage | Status | Tags | |------|------|-----|-----|-----|---------|--------|------| | 100 | portainer | 10.0.20.170 | 2 cores | 1 GB | 21 GB | running | docker;portainer | | 102 | coolify | - | 4 cores | 6 GB | 50 GB | stopped | debian | | 103 | dokploy | 10.0.20.167 | 2 cores | 2 GB | 10 GB | running | docker;deployment | | 104 | flowise | 10.0.20.161 | 4 cores | 2 GB | 100 GB | running | flowise;ollama | | 106 | gitea | 10.0.20.165 | 2 cores | 4 GB | 250 GB | running | alpine;community-script;docker;gitea | | 108 | central-oracle | 10.0.20.121 | 2 cores | 4 GB | 50 GB | running | docker;oracle | #### Virtual Machines (QEMU) | VMID | Nume | IP | CPU | RAM | Storage | Status | Descriere | |------|------|-----|-----|-----|---------|--------|-----------| | 201 | roacentral | DHCP | 2 cores | 4 GB | 500 GB | running | Windows 11 - Client pentru aplicații | | 300 | Win11-Template | - | 2 cores | 4 GB | 500 GB | stopped | Windows 11 Template pentru clonare | --- ## 🔧 LXC 108 - Oracle Database (Acces Rapid) ### Informații Container - **VMID:** 108 | **Nume:** central-oracle | **IP:** 10.0.20.121 - **CPU:** 2 cores | **RAM:** 4 GB | **Storage:** 50 GB (local-zfs) - **Docker:** oracle-xe (Oracle XE 21c) | **Status:** Running - **Portainer:** http://10.0.20.121:9443 ### Acces în LXC (fără user/parolă) > Nu ai nevoie de credențiale pentru LXC 108! > Accesul se face prin Proxmox folosind `pct enter` sau `pct exec`. ```bash # Metoda 1: Intrare directă în LXC ssh root@10.0.20.201 pct enter 108 # Metoda 2: Execuție comandă din Proxmox ssh root@10.0.20.201 "pct exec 108 -- docker ps" ``` ### Restart Oracle Database ```bash # Opțiunea 1: Restart Oracle container (RAPID) ssh root@10.0.20.201 "pct exec 108 -- docker restart oracle-xe" # Opțiunea 2: Restart LXC complet ssh root@10.0.20.201 "pct restart 108" # Verificare după restart ssh root@10.0.20.201 "pct exec 108 -- docker ps" ``` ### Verificări Rapide ```bash # Status containere Docker ssh root@10.0.20.201 "pct exec 108 -- docker ps" # Loguri Oracle ssh root@10.0.20.201 "pct exec 108 -- docker logs oracle-xe --tail 50" # Test conexiune Oracle nc -zv 10.0.20.121 1521 ``` ### 📖 Documentație Completă Oracle Pentru detalii despre: - Conexiuni Oracle (PDB-uri: roa, roa2) - Useri și parole Oracle - SQL*Plus, JDBC, TNS configurations - Export/import DMP - Comenzi SQL și troubleshooting **Vezi:** `proxmox/oracle-database-lxc108.md` --- ## Backup Job Configuration ### Job ID: backup-fbb668c0-726e - **Schedule:** Daily la 02:00 - **Compression:** zstd - **Mode:** snapshot - **Storage:** backup - **VM-uri incluse:** 100, 103, 104, 106, 108, 201 - **Retention:** 1 daily, 1 weekly - **Fleecing:** Disabled - **Notes Template:** {{guestname}} **Containere în backup:** - 100 (Portainer) - 10.0.20.170 - 103 (Dokploy) - 10.0.20.167 - 104 (Flowise) - 10.0.20.161 - 106 (Gitea) - 10.0.20.165 - 108 (Oracle) - 10.0.20.121 - 201 (Windows 11 VM) - DHCP ### Comenzi Cluster ```bash # Verificare status cluster pvecm status # Listare noduri pvecm nodes # Listare toate resurse cluster pvesh get /cluster/resources # Verificare configurație cluster cat /etc/pve/corosync.conf ``` ## 📡 Hartă Rapidă IP-uri ### Noduri Proxmox Cluster | Nod | IP | Rol | Web GUI | |-----|-----|-----|---------| | pve1 | 10.0.20.200 | Nod cluster 1 | https://10.0.20.200:8006 | | **pvemini** | 10.0.20.201 | **Nod principal (LXC-uri active)** | https://10.0.20.201:8006 | | pveelite | 10.0.20.202 | Nod cluster 3 | https://10.0.20.202:8006 | ### LXC Containers (Servicii) | VMID | Nume | IP | Port(uri) | Serviciu | |------|------|-----|-----------|----------| | 100 | portainer | 10.0.20.170 | 9443, 8000 | Portainer (Docker management) | | 103 | dokploy | 10.0.20.167 | 3000 | Dokploy (Deployment platform) | | 104 | flowise | 10.0.20.161 | 3000 | Flowise AI + Ollama | | 106 | gitea | 10.0.20.165 | 3000, 22 | Gitea (Git server) | | 108 | central-oracle | 10.0.20.121 | 1521, 5500, 9443 | Oracle XE 21c + Portainer | ### Virtual Machines | VMID | Nume | IP | OS | Rol | |------|------|-----|-----|-----| | 201 | roacentral | DHCP | Windows 11 | Client aplicații | | 300 | Win11-Template | - | Windows 11 | Template pentru clonare | ### Accesuri Rapide ```bash # Oracle Database (LXC 108) - Vezi proxmox/oracle-database-lxc108.md pentru detalii nc -zv 10.0.20.121 1521 # Test port Oracle sqlplus sys/romfastsoft@10.0.20.121:1521/roa as sysdba # Portainer Oracle http://10.0.20.121:9443 # Portainer Principal http://10.0.20.170:9443 # Gitea http://10.0.20.165:3000 # Dokploy http://10.0.20.167:3000 # Flowise AI http://10.0.20.161:3000 ``` **Pentru conexiuni Oracle detaliate (PDB-uri, useri, TNS, export DMP):** Vezi fișierul `proxmox/oracle-database-lxc108.md` --- ## Troubleshooting ### Probleme Comune SSH ```bash # Regenerare host keys pentru toate nodurile ssh-keygen -R 10.0.20.200 ssh-keygen -R 10.0.20.201 ssh-keygen -R 10.0.20.202 # Conectare cu debug ssh -v root@10.0.20.201 # Test conectivitate toate nodurile ping -c 3 10.0.20.200 ping -c 3 10.0.20.201 ping -c 3 10.0.20.202 ``` ### Probleme Cluster ```bash # Verificare quorum pvecm status # Restart servicii cluster systemctl restart pve-cluster systemctl restart corosync # Verificare log-uri cluster journalctl -u corosync -f journalctl -u pve-cluster -f ``` ### Probleme VM Windows 11 ```bash # Bypass cerințe TPM/Secure Boot în setup reg add "HKLM\SYSTEM\Setup\LabConfig" /v "BypassTPMCheck" /t REG_DWORD /d 1 /f reg add "HKLM\SYSTEM\Setup\LabConfig" /v "BypassSecureBootCheck" /t REG_DWORD /d 1 /f reg add "HKLM\SYSTEM\Setup\LabConfig" /v "BypassRAMCheck" /t REG_DWORD /d 1 /f # Forțare cont local în OOBE oobe\BypassNRO.cmd ``` ### Verificare Status Servicii ```bash # Status servicii Proxmox systemctl status pveproxy systemctl status pvedaemon systemctl status pvestatd # Restart servicii dacă e nevoie systemctl restart pveproxy ``` ## Web Interface ### Accesare Web GUI - **Nod pvemini (principal):** https://10.0.20.201:8006 - **Nod pve1:** https://10.0.20.200:8006 - **Nod pveelite:** https://10.0.20.202:8006 - **Utilizator:** root - **Port:** 8006 (HTTPS) ## Note Importante ### Cluster și High Availability 1. **Clusterul are 3 noduri** - Quorum necesită 2/3 noduri online 2. **Întotdeauna fă backup** înainte de modificări majore 3. **Storage sincronizat** - backup și backup-nfs sunt disponibile pe toate nodurile ### Performance și Configurații 4. **Folosește storage local-zfs** pentru performanță optimă VM-uri/containere 5. **Pentru Windows 11** folosește placa de rețea e1000 în loc de VirtIO pentru compatibilitate 6. **CPU type 'host'** oferă performanțe maxime cu KVM=1 7. **VM 201 (Windows 11)** rulează pe local-zfs pentru performanță optimă 8. **LXC 108 (Oracle XE 21c)** - IP: 10.0.20.121 - Acces fără user/parolă prin `pct enter 108` ### Backup și Siguranță 9. **Backup zilnic la 02:00** pentru toate containerele active și VM 201 10. **Retention policy:** 1 daily + 1 weekly 11. **Compression zstd** pentru backup-uri eficiente 12. **Testează conexiunea SSH** pe toate nodurile înainte de automatizări ### Containere Active 13. **6 containere LXC active** - Portainer (170), Dokploy (167), Flowise (161), Gitea (165), Oracle (121) 14. **Container 103 (Dokploy)** - Platform deployment și management Docker 15. **Container 108 (Oracle XE 21c)** - Database principal - Restart rapid: `ssh root@10.0.20.201 "pct exec 108 -- docker restart oracle-xe"` - Restart complet LXC: `ssh root@10.0.20.201 "pct restart 108"` - Portainer: http://10.0.20.121:9443 --- ## 📖 Documentație Asociată ### Documentație Index Principal - **README.md** - Index complet documentație Proxmox cu navigare rapidă ### LXC Containers - Documentație Detaliată #### LXC 108 - Oracle Database XE 21c - **Fișier:** `oracle-database-lxc108.md` - **Când să folosești:** Pentru orice operațiuni legate de Oracle Database - **Conține:** - PDB-uri (roa, roa2) - useri, parole, connection strings - Export/Import Data Pump (expdp, impdp) - Comenzi SQL pentru verificări (tablespace, obiecte, useri) - Troubleshooting Oracle specific - Diferențe Oracle 10g vs 21c (istoric migrare) ### Virtual Machines - Documentație Detaliată #### VM 201 - Windows 11 (roacentral) **Documentație Generală:** - **Fișier:** `vm201-windows11.md` - **Când să folosești:** Pentru informații generale despre VM 201 - **Conține:** - Configurație hardware și software - Rol și utilizare (client aplicații, SQL*Plus, reverse proxy IIS) - Servicii instalate (IIS, Win-ACME, WinNUT, RDP) - Configurare rețea și firewall - Backup și recovery - Troubleshooting comun **Documentație SSL/TLS:** - **Fișier:** `vm201-certificat-letsencrypt-iis.md` - **Când să folosești:** Pentru configurare și reînnoire certificate Let's Encrypt - **Conține:** - Instalare Win-ACME pentru certificate automate - Configurare IIS cu SNI (Server Name Indication) - Binding-uri pentru multiple domenii (roa.romfast.ro, dokploy.romfast.ro, gitea.romfast.ro) - Reînnoire automată certificate - Troubleshooting SSL/TLS - Scripturi PowerShell pentru configurare automată **Documentație Troubleshooting:** - **Fișier:** `vm201-troubleshooting-backup-nfs.md` - **Când să folosești:** Pentru referință troubleshooting probleme similare - **Conține:** - Incident VM locked și backup NFS blocat (2025-10-08) - Diagnostic și rezolvare pas cu pas - Comenzi HA management (ha-manager) - Force reboot și recovery - Lecții învățate și preventie ### Cluster-Wide Resources - Scripts și Sisteme #### Monitorizare High Availability - **Fișier:** `cluster-ha-monitor.sh` - **Când să folosești:** Pentru monitorizare automată HA cluster - **Conține:** - Script bash monitorizare HA services (pve-ha-lrm, pve-ha-crm) - Verificare quorum cluster - Verificare noduri online - Notificări prin PVE::Notify (email) - Template-uri Handlebars pentru emailuri - Logging automat **Instalare și rulare:** ```bash # Instalare scp proxmox/cluster-ha-monitor.sh root@10.0.20.201:/opt/scripts/ ssh root@10.0.20.201 "chmod +x /opt/scripts/cluster-ha-monitor.sh" ssh root@10.0.20.201 "/opt/scripts/cluster-ha-monitor.sh --create-templates" # Rulare verbose ssh root@10.0.20.201 "/opt/scripts/cluster-ha-monitor.sh -v" ``` #### Sistem UPS pentru Cluster - **Director:** `ups/` - **Când să folosești:** Pentru configurare, monitorizare și mentenanță UPS - **Conține:** - `ups/README.md` - Ghid complet sistem UPS - `ups/docs/` - Documentație detaliată (instalare NUT, WinNUT, shutdown orchestrat, test lunar baterie, înlocuire baterie) - `ups/scripts/` - Scripturi automate (shutdown cluster, test dry-run, test lunar, mentenanță) - `ups/config/` - Fișiere configurare NUT **Quick start UPS:** ```bash # Status UPS ssh root@10.0.20.201 "upsc nutdev1" # Test dry-run shutdown ssh root@10.0.20.201 "/usr/local/bin/ups-shutdown-test.sh" # Vezi ultimul test lunar baterie ssh root@10.0.20.201 "tail -50 /var/log/ups-monthly-test.log" ``` ### Archived / Decommissioned #### VM 107 Monitor Script (DECOMMISSIONED) - **Fișier:** `archived-vm107-monitor.sh` - **Status:** Script arhivat pentru referință istorică - **Notă:** VM 107 (Oracle 10g Windows 7) a fost decommissioned și înlocuit cu LXC 108 (Oracle XE 21c) - **Vezi:** `oracle-database-lxc108.md` pentru sistemul actual --- **Ultima actualizare:** 2025-11-19 **Autor:** Marius Mutu **Proiect:** ROMFASTSQL - Proxmox Infrastructure Documentation