解决 SSH或直接操作宿主机,执行如下命令(最后一个,可能执行的时间比较长): lvchange -an pve/data_tdata lvchange -an pve/data_tmeta lvchange -ay pve/data
├─pve-root 253:1019.8G0lvm / ├─pve-data_tmeta 253:201G0lvm │└─pve-data 253:4043.9G0lvm └─pve-data_tdata 253:3043.9G0lvm └─pve-data 253:4043.9G0lv lvm-data 而LVM之中,还建了一个thinpool,名为data。 什么叫lvm-thin可以参考LVM存储虚拟化_Thin-provisioned.pdf-原创力文档 (bo...
├─pve-swap 252:0 0 8G 0 lvm [SWAP] ├─pve-root 252:1 0 96G 0 lvm / ├─pve-data_tmeta 252:2 0 15.9G 0 lvm │└─pve-data-tpool 252:4 0 3.6T 0 lvm │ ├─pve-data 252:5 0 3.6T 1 lvm │ └─pve-vm--100--disk--0 252:6 0 4G 0 lvm └─pve-data_tdata 2...
lvextend -l +100%FREE /dev/pve/data # 假设Local-LVM的逻辑卷名称是pve/data 这个命令会将所有未分配的LVM空间分配给pve/data逻辑卷。如果pve/data是一个thin pool,你可能还需要扩展其元数据和数据部分: bash lvextend -l +100%FREE /dev/pve/data_tdata lvextend -l +100%FREE /dev/pve/data_tmet...
├─pve-data_tmeta 253:2 0 1G 0 lvm │└─pve-data 253:4 0 8G 0 lvm └─pve-data_tdata 253:3 0 8G 0 lvm └─pve-data 253:4 0 8G 0 lvm sdb 8:16 0 50G 0 disk sdc 8:32 0 50G 0 disk sdd 8:48 0 50G 0 disk ...
在vm中添加直通PCI设备后, pve主系统死机, 直通的设备为PCIe转SATA(ASM1061芯片)配置:CPU: E3-1225 ...
├─pve-data_tmeta 253:2 0 1G 0 lvm │└─pve-data 253:4 0 8G 0 lvm └─pve-data_tdata 253:3 0 8G 0 lvm └─pve-data 253:4 0 8G 0 lvm sdb 8:16 0 50G 0 disk sdc 8:32 0 50G 0 disk sdd 8:48 0 50G 0 disk ...
https://forum.proxmox.com/threads/t...gical-volume-pve-data_tdata-is-active.106225/ this thread leads me to the this command with this error lvchange -an pve/data_tmeta device-mapper: remove ioctl on (253:2) failed: Device or resource busy Unable to deactivate pve-data_tmeta (253:...
[SWAP] ├─pve-root 253:1 0 24.8G 0 lvm / ├─pve-data_tmeta 253:2 0 1G 0 lvm │└─pve-data-tpool 253:4 0 56.4G 0 lvm │ ├─pve-data 253:5 0 56.4G 1 lvm │ ├─pve-vm--102--disk--0 253:6 0 40G 0 lvm │ ├─pve-vm--101--disk--0 253:7 0 40G 0 lvm ...
├─pve-data_tmeta 253:2 0 1G 0 lvm │└─pve-data 253:4 0 42.2G 0 lvm └─pve-data_tdata 253:3 0 42.2G 0 lvm └─pve-data 253:4 0 42.2G 0 lvm sdb 8:16 0 100G 0 disk sr0 11:0 1 1.1G 0 rom#磁盘分区root@wht-pve02:~# fdisk /dev/sdbWelcome to fdisk (util-linu...