云服务器内容精选

  • 操作步骤 使用root用户登录云服务器。 执行以下命令,查看RAID阵列的UUID等信息。 mdadm --detail --scan 回显类似如下信息: [root@ecs-raid10 ~]# mdadm --detail --scanARRAY /dev/md0 metadata=1.2 name=ecs-raid10.novalocal:0 UUID=f400dbf9:60d211d9:e006e07b:98f8758c 执行以下步骤,在mdadm文件中添加新建RAID阵列的信息。 执行以下命令,打开“mdadm.conf”文件。 vi /etc/mdadm.conf 按“i”进入编辑模式。 参考以下示例,在文件最后添加如下配置: DEVICE /dev/vdb /dev/vdc /dev/vdd /dev/vdeARRAY /dev/md0 metadata=1.2 name=ecs-raid10.novalocal:0 UUID=f400dbf9:60d211d9:e006e07b:98f8758c 说明如下: DEVICE行:为组建RAID阵列的磁盘设备名,多个磁盘设备名以空格隔开。 ARRAY行:此处填写2中查到的RAID阵列信息。 此处仅为本示例的信息,请根据RAID阵列的实际信息添加。 按“Esc”,输入“:wq!”,并按“Enter”。 保存设置并退出vi编辑器。 执行以下命令,查看“mdadm.conf”文件是否修改成功。 more /etc/mdadm.conf 回显类似如下信息: [root@ecs-raid10 ~]# more /etc/mdadm.confDEVICE /dev/vdb /dev/vdc /dev/vdd /dev/vdeARRAY /dev/md0 metadata=1.2 name=ecs-raid10.novalocal:0 UUID=f400dbf9:60d211d9:e006e07b:98f8758c 可以看到3中添加的信息,表示修改成功。
  • 操作步骤 以root用户登录弹性云服务器。 执行如下命令,查看磁盘并记录设备名称。 fdisk -l | grep /dev/vd | grep -v vda 回显类似如下信息: [root@ecs-lvmtest ~]# fdisk -l | grep /dev/vd | grep -v vdaDisk /dev/vdb: 10.7 GB, 10737418240 bytes, 20971520 sectorsDisk /dev/vdc: 10.7 GB, 10737418240 bytes, 20971520 sectors 可以看到云服务器上挂载的2块磁盘,设备名称分别为“/dev/vdb”、“/dev/vdc”。 将云硬盘创建为物理卷。 执行以下命令,将云硬盘创建为物理卷。 pvcreate 磁盘设备名1 磁盘设备名2 磁盘设备名3... 参数说明如下: 磁盘设备名:此处需要填写磁盘的设备名称,如果需要批量创建,可以填写多个设备名称,中间以空格间隔。 命令示例: pvcreate /dev/vdb /dev/vdc 回显类似如下信息: [root@ecs-lvmtest ~]# pvcreate /dev/vdb /dev/vdc Physical volume "/dev/vdb" successfully created. Physical volume "/dev/vdc" successfully created. 执行如下命令,查看系统中物理卷的详细信息。 pvdisplay 回显类似如下信息: [root@ecs-lvmtest ~]# pvdisplay "/dev/vdc" is a new physical volume of "10.00 GiB" --- NEW Physical volume --- PV Name /dev/vdc VG Name PV Size 10.00 GiB Allocatable NO PE Size 0 Total PE 0 Free PE 0 Allocated PE 0 PV UUID dypyLh-xjIj-PvG3-jD0j-yup5-O7SI-462R7C "/dev/vdb" is a new physical volume of "10.00 GiB" --- NEW Physical volume --- PV Name /dev/vdb VG Name PV Size 10.00 GiB Allocatable NO PE Size 0 Total PE 0 Free PE 0 Allocated PE 0 PV UUID srv5H1-tgLu-GRTl-Vns8-GfNK-jtHk-Ag4HHB 可以看到系统有两个新的物理卷,物理卷名称分别为“/dev/vdc”、“/dev/vdb”。 将多个物理卷组合成卷组。 执行以下命令,创建卷组。 vgcreate 卷组名 物理卷名称1 物理卷名称2 物理卷名称3... 参数说明如下: 卷组名:可自定义,此处以vgdata为例。 物理卷名称:此处需要填写待添加进卷组的所有物理卷名称,中间以空格隔开。 命令示例: vgcreate vgdata /dev/vdb /dev/vdc 回显类似如下信息: [root@ecs-lvmtest ~]# vgcreate vgdata /dev/vdb /dev/vdc Volume group "vgdata" successfully created 执行如下命令,查看系统中卷组的详细信息。 vgdisplay 回显类似如下信息: [root@ecs-lvmtest ~]# vgdisplay --- Volume group --- VG Name vgdata System ID Format lvm2 Metadata Areas 2 Metadata Sequence No 1 VG Access read/write VG Status resizable MAX LV 0 Cur LV 0 Open LV 0 Max PV 0 Cur PV 2 Act PV 2 VG Size 19.99 GiB PE Size 4.00 MiB Total PE 5118 Alloc PE / Size 0 / 0 Free PE / Size 5118 / 19.99 GiB VG UUID NLkZV7-hYYE-0w66-tnlt-Y6jL-Ik7S-76w4P6 在卷组中创建逻辑卷 执行如下命令,创建逻辑卷。 lvcreate -L 逻辑卷大小 -n 逻辑卷名称 卷组名称 参数说明如下: 逻辑卷大小:该值应小于卷组剩余可用空间大小,单位可以选择“MB”或“GB”。 逻辑卷名称:可自定义,此处以lvdata1为例。 卷组名称:此处需要填写逻辑卷所在的卷组名称。 命令示例: lvcreate -L 15GB -n lvdata1 vgdata 回显类似如下信息: [root@ecs-lvmtest ~]# lvcreate -L 15GB -n lvdata1 vgdata Logical volume "lvdata1" created. 执行如下命令,查询系统中逻辑卷的详细信息。 lvdisplay 回显类似如下信息: [root@ecs-lvmtest ~]# lvdisplay --- Logical volume --- LV Path /dev/vgdata/lvdata1 LV Name lvdata1 VG Name vgdata LV UUID c7mNcF-CdPW-5PLD-1gVj-QZpB-nHfy-PHXchV LV Write Access read/write LV Creation host, time ecs-lvmtest.novalocal, 2018-11-29 11:28:18 +0800 LV Status available # open 0 LV Size 15.00 GiB Current LE 3840 Segments 2 Allocation inherit Read ahead sectors auto - currently set to 8192 Block device 252:0
  • 操作步骤 以root用户登录弹性云服务器。 执行如下命令,扩展逻辑卷的容量。 lvextend -L +增加容量 逻辑卷路径 参数说明如下: 增加容量:该值应小于组卷剩余可用空间大小,单位可以选择“MB”或“GB”。 逻辑卷路径:此处需要填写待扩容的逻辑卷的路径。 命令示例: lvextend -L +4GB /dev/vgdata/lvdata1 回显类似如下信息: [root@ecs-lvmtest ~]# lvextend -L +4GB /dev/vgdata/lvdata1 Size of logical volume vgdata/lvdata1 changed from 15.00 GiB (3840 extents) to 19.00 GiB (4864 extents). Logical volume vgdata/lvdata1 successfully resized. 此时只是扩展的逻辑卷的容量,在其之上的文件系统也要随之进行扩展才能使用。 执行如下命令,扩展文件系统的容量。 resize2fs 逻辑卷路径 命令示例: resize2fs /dev/vgdata/lvdata1 回显类似如下信息: [root@ecs-lvmtest ~]# resize2fs /dev/vgdata/lvdata1resize2fs 1.42.9 (28-Dec-2013)Filesystem at /dev/vgdata/lvdata1 is mounted on /Data1; on-line resizing requiredold_desc_blocks = 4, new_desc_blocks = 28The filesystem on /dev/vgdata/lvdata1 is now 3657728 blocks long. 执行如下命令,查看文件系统容量是否增加。 df -h 回显类似如下信息: [root@ecs-lvmtest ~]# df -hFilesystem Size Used Avail Use% Mounted on/dev/vda2 39G 1.5G 35G 5% /devtmpfs 487M 0 487M 0% /devtmpfs 496M 0 496M 0% /dev/shmtmpfs 496M 6.7M 490M 2% /runtmpfs 496M 0 496M 0% /sys/fs/cgroup/dev/vda1 976M 131M 779M 15% /boottmpfs 100M 0 100M 0% /run/user/0/dev/mapper/vgdata-lvdata1 19G 44M 18G 1% /Data1 可以看到,文件系统“/dev/mapper/vgdata-lvdata1”的容量相比之前增加了4GB。
  • 操作步骤 使用root用户登录云服务器。 执行以下命令,查看磁盘并记录设备名称。 fdisk -l | grep /dev/vd | grep -v vda 回显类似如下信息: [root@ecs-raid10 ~]# fdisk -l | grep /dev/vd | grep -v vdaDisk /dev/vdb: 10.7 GB, 10737418240 bytes, 20971520 sectorsDisk /dev/vdc: 10.7 GB, 10737418240 bytes, 20971520 sectorsDisk /dev/vdd: 10.7 GB, 10737418240 bytes, 20971520 sectorsDisk /dev/vde: 10.7 GB, 10737418240 bytes, 20971520 sectors 可以看到云服务器上挂载的4块磁盘,设备名称分别为“/dev/vdb”、“/dev/vdc”、“/dev/vdd”和“/dev/vde”。 执行以下命令,安装mdadm工具。 yum install mdadm -y mdadm是Linux下的RAID管理工具,务必确保安装mdadm工具的云服务器已开通弹性公网IP。 回显类似如下信息: [root@ecs-raid10 ~]# yum install mdadm -y......Installed: mdadm.x86_64 0:4.0-13.el7Dependency Installed: libreport-filesystem.x86_64 0:2.1.11-40.el7.centosComplete! 执行以下命令,使用2中查到的4块磁盘创建RAID阵列。 mdadm -Cv RAID阵列设备名 -a yes -n 磁盘数量 -l RAID级别 磁盘1设备名 磁盘2设备名 磁盘3设备名 磁盘4设备名... 参数说明如下: RAID阵列设备名:可自定义,此处以/dev/md0为例。 磁盘数量:根据实际情况填写,此处RAID10至少为4块。 不同的RAID阵列要求的最小磁盘数量不同,具体说明请参见使用云硬盘组建RAID磁盘阵列概述。 RAID级别:根据实际情况填写,此处以RAID10为例。 磁盘设备名:此处需要填写待组建RAID阵列的所有磁盘设备名,中间以空格隔开。 命令示例: mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/vdb /dev/vdc /dev/vdd /dev/vde 回显类似如下信息: [root@ecs-raid10 ~]# mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/vdb /dev/vdc /dev/vdd /dev/vdemdadm: layout defaults to n2mdadm: layout defaults to n2mdadm: chunk size defaults to 512Kmdadm: size set to 10476544Kmdadm: Defaulting to version 1.2 metadatamdadm: array /dev/md0 started. 执行以下命令,格式化新建的RAID阵列。 mkfs.文件格式 RAID阵列设备名 命令示例: mkfs.ext4 /dev/md0 回显类似如下信息: [root@ecs-raid10 ~]# mkfs.ext4 /dev/md0mke2fs 1.42.9 (28-Dec-2013)Filesystem label=OS type: LinuxBlock size=4096 (log=2)Fragment size=4096 (log=2)Stride=128 blocks, Stripe width=256 blocks1310720 inodes, 5238272 blocks261913 blocks (5.00%) reserved for the super userFirst data block=0Maximum filesystem blocks=2153775104160 block groups32768 blocks per group, 32768 fragments per group8192 inodes per groupSuperblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000Allocating group tables: doneWriting inode tables: doneCreating journal (32768 blocks): doneWriting superblocks and filesystem accounting information: done 执行以下命令,创建挂载目录。 mkdir 挂载目录 命令示例: mkdir /RAID10 执行以下命令,挂载RAID阵列设备名。 mount RAID阵列设备名 挂载目录 命令示例: mount /dev/md0 /RAID10 执行以下命令,查看RAID阵列的挂载结果。 df -h 回显类似如下信息: [root@ecs-raid10 ~]# df -hFilesystem Size Used Avail Use% Mounted on/dev/vda2 39G 1.5G 35G 5% /devtmpfs 911M 0 911M 0% /devtmpfs 920M 0 920M 0% /dev/shmtmpfs 920M 8.6M 911M 1% /runtmpfs 920M 0 920M 0% /sys/fs/cgroup/dev/vda1 976M 146M 764M 17% /boottmpfs 184M 0 184M 0% /run/user/0/dev/md0 20G 45M 19G 1% /RAID10 执行以下步骤,设置云服务器系统启动时自动挂载RAID阵列。 执行以下命令,打开“/etc/fstab”文件。 vi /etc/fstab 按“i”进入编辑模式。 回显类似如下信息: [root@ecs-raid10 ~]# vi /etc/fstab## /etc/fstab# Created by anaconda on Tue Nov 7 14:28:26 2017## Accessible filesystems, by reference, are maintained under '/dev/disk'# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info#UUID=27f9be47-838b-4155-b20b-e4c5e013cdf3 / ext4 defaults 1 1UUID=2b2000b1-f926-4b6b-ade8-695ee244a901 /boot ext4 defaults 1 2 参考以下示例,在文件的最后一行添加如下配置: /dev/md0 /RAID10 ext4 defaults 0 0 按“Esc”,输入“:wq!”,并按“Enter”。 保存设置并退出vi编辑器。 执行以下命令,查看磁盘RAID阵列的信息。 mdadm -D RAID阵列设备名 命令示例: mdadm -D /dev/md0 回显类似如下信息: [root@ecs-raid10 ~]# mdadm -D /dev/md0/dev/md0: Version : 1.2 Creation Time : Thu Nov 8 15:49:02 2018 Raid Level : raid10 Array Size : 20953088 (19.98 GiB 21.46 GB) Used Dev Size : 10476544 (9.99 GiB 10.73 GB) Raid Devices : 4 Total Devices : 4 Persistence : Superblock is persistent Update Time : Thu Nov 8 16:15:11 2018 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : near=2 Chunk Size : 512KConsistency Policy : resync Name : ecs-raid10.novalocal:0 (local to host ecs-raid10.novalocal) UUID : f400dbf9:60d211d9:e006e07b:98f8758c Events : 19 Number Major Minor RaidDevice State 0 253 16 0 active sync set-A /dev/vdb 1 253 32 1 active sync set-B /dev/vdc 2 253 48 2 active sync set-A /dev/vdd 3 253 64 3 active sync set-B /dev/vde
  • 操作步骤 以root用户登录弹性云服务器。 执行以下命令,查看系统中是否安装了LVM管理工具。 rpm -qa |grep lvm2 [root@ecs-lvmtest ~]# rpm -qa |grep lvm2lvm2-libs-2.02.177-4.el7.x86_64lvm2-2.02.177-4.el7.x86_64 如果得到以上回显信息,则说明系统中已经安装了LVM工具,可直接查看通过LVM创建逻辑卷。 如果未得到以上回显信息,则说明系统中未安装LVM工具,请执行步骤3完成安装。 执行以下命令,并根据回显提示信息安装LVM工具。 yum install lvm2 回显类似如下信息: ......Installed: lvm2.x86_64 7:2.02.177-4.el7Dependency Installed: device-mapper-event.x86_64 7:1.02.146-4.el7 device-mapper-event-libs.x86_64 7:1.02.146-4.el7 device-mapper-persistent-data.x86_64 0:0.7.3-3.el7 lvm2-libs.x86_64 7:2.02.177-4.el7Dependency Updated: device-mapper.x86_64 7:1.02.146-4.el7 device-mapper-libs.x86_64 7:1.02.146-4.el7Complete! 当回显显示“Complete!”时,表示安装LVM完成。
  • 操作步骤 以root用户登录弹性云服务器。 执行如下命令,创建文件系统。 mkfs.文件格式 逻辑卷路径 命令示例: mkfs.ext4 /dev/vgdata/lvdata1 回显类似如下信息: [root@ecs-lvmtest ~]# mkfs.ext4 /dev/vgdata/lvdata1mke2fs 1.42.9 (28-Dec-2013)Filesystem label=OS type: LinuxBlock size=4096 (log=2)Fragment size=4096 (log=2)Stride=0 blocks, Stripe width=0 blocks983040 inodes, 3932160 blocks196608 blocks (5.00%) reserved for the super userFirst data block=0Maximum filesystem blocks=2151677952120 block groups32768 blocks per group, 32768 fragments per group8192 inodes per groupSuperblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208Allocating group tables: doneWriting inode tables: doneCreating journal (32768 blocks): doneWriting superblocks and filesystem accounting information: done 执行如下命令,创建挂载目录。 mkdir 挂载目录 命令示例: mkdir /Data1 执行如下命令,将文件系统挂载到目录下。 mount 逻辑卷路径 挂载目录 命令示例: mount /dev/vgdata/lvdata1 /Data1 执行如下命令,查询文件系统挂载信息。 mount | grep 挂载目录 命令示例: mount | grep /Data1 回显类似如下信息: [root@ecs-lvmtest ~]# mount | grep /Data1/dev/mapper/vgdata-lvdata1 on /Data1 type ext4 (rw,relatime,data=ordered) “dev/mapper/vgdata-lvdata1”为文件系统路径,记录此路径,步骤6中需要使用此路径。 执行以下步骤,设置云服务器系统启动时自动挂载文件系统。 如果未进行此项设置,在弹性云服务器重启时重新手动挂载文件系统。 执行如下命令,查询文件系统的UUID。 blkid 文件系统路径 以查询“dev/mapper/vgdata-lvdata1”的UUID为例: blkid /dev/mapper/vgdata-lvdata1 回显类似如下信息: [root@ecs-lvmtest ~]# blkid /dev/mapper/vgdata-lvdata1/dev/mapper/vgdata-lvdata1: UUID="c6a243ce-5150-41ac-8816-39db54d1a4b8" TYPE="ext4" UUID为"c6a243ce-5150-41ac-8816-39db54d1a4b8"。 执行以下命令,打开“/etc/fstab”文件。 vi /etc/fstab 回显类似如下信息: [root@ecs-lvmtest ~]# vi /etc/fstab## /etc/fstab# Created by anaconda on Tue Nov 7 14:28:26 2017## Accessible filesystems, by reference, are maintained under '/dev/disk'# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info#UUID=27f9be47-838b-4155-b20b-e4c5e013cdf3 / ext4 defaults 1 1UUID=2b2000b1-f926-4b6b-ade8-695ee244a901 /boot ext4 defaults 1 2 按“i”进入编辑模式。 将光标移至文件末尾,按“Enter”,添加如下内容。 UUID=c6a243ce-5150-41ac-8816-39db54d1a4b8 /Data1 ext4 defaults 0 0 内容说明如下: 第一列:UUID,此处填写1查询的UUID; 第二列:文件系统的挂载目录,此处填写步骤3创建的挂载目录“/Data1”; 第三列:文件系统的文件格式,此处填写步骤2设置的文件格式“ext4”; 第四列:挂载选项,此处以“defaults”为例; 第五列:备份选项,设置为“1”时,系统自动对该文件系统进行备份;设置为“0”时,不进行备份。此处以“0”为例; 第六列:扫描选项,设置为“1”时,系统在启动时自动对该文件系统进行扫描;设置为“0”时,不进行扫描。此处以“0”为例。 按“Esc”,输入“:wq!”,并按“Enter”。 保存设置并退出vi编辑器。 执行以下步骤,验证自动挂载功能。 执行如下命令,卸载文件系统。 umount 逻辑卷路径 命令示例: umount /dev/vgdata/lvdata1 执行如下命令,将/etc/fstab文件所有内容重新加载。 mount -a 执行如下命令,查询文件系统挂载信息。 mount | grep 挂载目录 命令示例: mount | grep /Data1 回显类似如下信息,说明自动挂载功能生效: [root@ecs-lvmtest ~]# mount | grep /Data1/dev/mapper/vgdata-lvdata1 on /Data1 type ext4 (rw,relatime,data=ordered)
  • 常见RAID磁盘阵列介绍 表1 常见RAID磁盘阵列介绍 RAID级别 简介 读写性能 安全性能 磁盘使用率 组建不同RAID阵列所需的最少磁盘数量 RAID0 RAID0将数据分条存储在多个磁盘上,可实现并行读写,提供最快的读写速率。 多个磁盘并行读写获取更高性能 最差 没有冗余能力,一个磁盘损坏,整个RAID阵列数据都不可用 100% 两块 RAID1 通过构造数据镜像实现数据冗余,阵列中一半的磁盘容量投入使用,另一半磁盘容量用来做镜像,提供数据备份。 读性能:与单个磁盘相同 写性能:需要将数据写入两个磁盘,写性能低于单个磁盘 最高 提供磁盘数据的完整备份,当阵列中的一个磁盘失效时,系统可以自动采用镜像磁盘的数据 50% 两块 RAID01 结合RAID0和RAID1两种磁盘阵列,先将一半磁盘组建成RAID0分条存储数据,再用另一半磁盘做RAID1镜像。 读性能:和RAID0相同 写性能:和RAID1相同 比RAID10的安全性能低 50% 四块 RAID10 结合RAID1和RAID0两种磁盘阵列,先将磁盘两两组建成RAID1镜像,再组建RAID0将数据分条存储。 读性能:RAID0相同 写性能:RAID1相同 和RAID1的安全性能相同 50% 四块 RAID5 RAID5不需要单独指定数据校验磁盘,而是将每块磁盘生成的校验信息分块存储至阵列中的每块磁盘中。 读性能:和RAID0相同 写性能:由于要写入奇偶校验信息,写性能低于单个磁盘 比RAID10的安全性能低 66.7% 三块
  • 操作场景 云硬盘容量大于2TiB时,只能使用parted工具为磁盘新建GPT分区。不同云服务器的操作系统的初始化操作可能不同。 分区格式 操作系统 文件系统 初始化工具 配置示例 GPT 不限 ext*(如ext2、ext3、ext4)、xfs、btrfs parted 设备名:/dev/vdb 文件系统:ext4 挂载目录:/mnt/sdc 分区:/dev/vdb1 分区格式:GPT 容量:3TiB
  • 初始化已使用的磁盘 登录云服务器,执行以下命令获取自动初始化磁盘脚本。 wget https://ecs-instance-driver.obs.cn-north-1.myhuaweicloud.com/datadisk/LinuxVMDataDiskAutoInitialize.sh 修改自动初始化磁盘脚本权限 chmod -x LinuxVMDataDiskAutoInitialize.sh 执行初始化脚本自动检测待初始化的数据盘。 sh LinuxVMDataDiskAutoInitialize.sh 脚本会自动检测出您选择的磁盘已经被挂载并显示出挂载的位置,根据提示选择是否卸载磁盘,输入“y ”为确定卸载,输入“n”则退出脚本。此处选择“y”继续后续的初始化操作。 图5 卸载磁盘 成功卸载磁盘后根据提示选择是否开始格式化磁盘,输入“y”为确定格式化,输入“n”则退出脚本。 图6 开始格式化磁盘 成功格式化磁盘后将会自动执行磁盘的创建分区与格式化,根据提示输入这个磁盘需要挂载的位置,比如/data-test。 图7 输入磁盘挂载路径 等待脚本自动挂载并设置为开机自动挂载后,就完成了磁盘创建分区格式化和挂载磁盘的工作。 图8 完成磁盘分区格式化与磁盘挂载
  • 约束与限制 直接将共享云硬盘挂载给多台云服务器无法实现文件共享功能。云服务器之间没有相互约定读写数据的规则,将会导致这些云服务器读写数据时相互干扰或者出现其他不可预知的错误。因此,如需在多台云服务器之间共享文件,需要搭建共享文件系统或类似的集群管理系统。 一块共享云硬盘最多可挂载至16台云服务器,这些云服务器必须与共享云硬盘位于同一区域下的同一可用区。 当共享盘状态为“正在使用”时,必须确保该共享盘还未挂满,才可以挂载给其他云服务器。 共享云硬盘挂载的多台云服务器只能为Windows或Linux操作系统中的一种。比如: 共享云硬盘首次挂载至多台Windows云服务器,则卸载后,也不能挂载至Linux云服务器。因为Windows和Linux支持的文件系统不同,无法识别云硬盘原有文件系统,如果操作不当会导致原有文件系统被破坏。 共享云硬盘只能用作数据盘,不能用作系统盘。 ISO镜像创建的云服务器只建议用来装机,部分功能受限,不支持挂载云硬盘操作。 云服务器的状态为“运行中”或“关机”才可挂载云硬盘。 处于冻结状态的云硬盘,不支持挂载给云服务器。 随包年/包月云服务器购买的系统盘,卸载后,如果继续作为系统盘使用,则只能挂载给原云服务器;如果作为数据盘使用,则可以挂载给任意云服务器。 随按需计费云服务器购买的系统盘,卸载后,如果继续作为系统盘使用,则只能挂载给与该系统盘镜像相同的云服务器;如果作为数据盘使用,则可以挂载给任意云服务器。
  • 初始化新挂载的磁盘 登录云服务器,执行以下命令获取自动初始化磁盘脚本。 wget https://ecs-instance-driver.obs.cn-north-1.myhuaweicloud.com/datadisk/LinuxVMDataDiskAutoInitialize.sh 如果回显异常,请检查云服务器是否绑定弹性公网IP。除华北-北京一外的区域,绑定弹性公网IP后才能获取脚本。 修改自动初始化磁盘脚本权限 chmod +x LinuxVMDataDiskAutoInitialize.sh 执行初始化脚本自动检测待初始化的数据盘。 ./LinuxVMDataDiskAutoInitialize.sh 脚本将自动检测当前在服务器上除系统盘之外的盘符并显示出来,如/dev/vdb,然后需要输入要执行的盘符,例如 /dev/vdb。 图1 自动检测磁盘 输入盘符并回车后,脚本将自动执行硬盘的创建分区与格式化。 图2 输入盘符 根据提示输入磁盘需要挂载的路径,比如/data-test。 图3 输入磁盘挂载的路径 等待脚本自动挂载并设置为开机自动挂载后,就完成了磁盘创建分区格式化和挂载磁盘的工作。 图4 完成磁盘分区格式化
  • 入门流程 云硬盘可以挂载至云服务器,用作提供系统盘和数据盘,系统盘和数据盘购买方式不同,请参见表1。 表1 购买方式 磁盘 说明 方法 系统盘 系统盘需要跟随云服务器一起购买,无法单独购买。 购买弹性云服务器 购买裸金属服务器 数据盘 数据盘可以跟随云服务器一起购买,也可以单独购买。 购买弹性云服务器 购买裸金属服务器 购买云硬盘 以单独购买数据盘为例,流程如图1所示。 图1 入门流程 准备工作: 注册华为账号 并开通华为云,为账户充值等,请参见步骤1:准备工作。 购买云硬盘:设置云硬盘的类型、容量、名称等信息,请参见购买云硬盘。 挂载数据盘:将独立购买的云硬盘挂载至弹性云服务器,请参见: 挂载非共享云硬盘 挂载共享云硬盘 初始化数据盘:数据盘挂载至弹性云服务器后,还不能直接使用,需要登录弹性云服务器初始化后才可以使用。初始化场景介绍及方法请参见: 初始化概述 初始化Linux数据盘(容量小于等于2TiB) 初始化Linux数据盘(容量大于2TiB) 初始化windows数据盘
  • 操作场景 本文介绍使用磁盘管理工具和使用脚本来初始化Windows系统中的一块数据盘,下文示例中所使用的配置如下表所示。不同云服务器的操作系统的初始化操作可能不同,请根据您的实际环境进行操作。 初始化方式 分区格式 配置示例 使用脚本初始化数据盘(适用于容量小于等于2 TiB数据盘) GPT MBR 版本:Windows Server 2019 标准版 64bit 设备名:磁盘1 容量:10GiB 初始化后: 分区名:新加卷(D:) 分区格式:MBR 文件系统:NTFS 手动初始化数据盘 GPT MBR 版本:Windows Server 2019 标准版 64bit 设备名:磁盘1 容量:100GiB 初始化后: 分区名:新加卷(D:) 分区格式:GPT 文件系统:NTFS
  • 约束与限制 从数据源创建的云硬盘无需初始化。该云硬盘在初始状态就具有数据源中的数据,初始化有丢失数据的风险。如果需要重新初始化,建议先备份云硬盘中的数据。。 初始化云硬盘不会删除云硬盘快照,初始化后仍可以使用快照回滚数据至原云硬盘。 使用该脚本初始化,分区格式默认设置为MBR分区,文件系统类型默认设置为NTFS。 不支持Windows组逻辑卷组的初始化。 Windows最多支持23块数据盘初始化。 只支持初始化简体中文和英文版本Windows系统中的数据盘。
  • 使用脚本初始化数据盘 登录云服务器。 登录弹性云服务器请参见登录弹性云服务器。 登录裸金属服务器请参见登录裸金属服务器。 查看待初始化的云硬盘的盘符信息。 lsblk 执行以下命令获取自动初始化磁盘脚本。 wget https://ecs-instance-driver.obs.cn-north-1.myhuaweicloud.com/datadisk/LinuxVMDataDiskAutoInitialize.sh 如果回显异常,请检查云服务器是否绑定弹性公网IP,绑定弹性公网IP后才能获取脚本。 使用脚本对/dev/vdb进行初始化 chmod +x LinuxVMDataDiskAutoInitialize.sh ./LinuxVMDataDiskAutoInitialize.sh 输入盘符如/dev/vdb并回车,脚本将自动执行硬盘的创建分区(/dev/vdb1)与格式化。 您可以使用lsblk查看E CS 挂载的所有盘符情况。 对于有数据的云硬盘,脚本会自动检测出您选择的磁盘已经被挂载并显示出挂载的位置,请根据提示选择是否卸载磁盘。成功卸载磁盘后根据提示选择是否开始格式化磁盘。 对磁盘进行挂载操作,例如输入挂载目录为/data-test,脚本会自动新建该目录进行挂载操作。 脚本将会自动设置为开机自动挂载。 针对/dev/vdb磁盘分区为/dev/vdb1的初始化成功。