- 7.48 MB
- 2021-05-10 发布
- 1、本文档由用户上传,淘文库整理发布,可阅读全部内容。
- 2、本文档内容版权归属内容提供方,所产生的收益全部归内容提供方所有。如果您对本文有版权争议,请立即联系网站客服。
- 3、本文档由用户上传,本站不保证质量和数量令人满意,可能有诸多瑕疵,付费之前,请仔细阅读内容确认后进行付费下载。
- 网站客服QQ:403074932
1
Vmware Vsan
产品
/
解决方案
主要应用场景
vRealize
NSX
v
SAN
Horizon
vSphere
VMware
SDDC
平台:
业界最
稳
定、最安全、 支持最广泛应用
2
Apps
APP
APP
APP
APP
APP
APP
APP
APP
APP
APP
APP
APP
APP
And
Many More
...
Business Critical Apps
Desktop Virtualization
Big Data
Cloud Native
Apps
/Container
3D Graphics
Deep Learning w/ GPU
Test / Dev / Tier 2/3
国内某用户
ESX
持续运行近
8
年
vSAN
:为虚拟化和云计算而生、支持最广泛
应
用的超融合软件定义存储解决方案
关键业务应
用
(
ERP/SAP
)
虚拟桌面
(VDI)
灾难恢复
/
灾难规避
云原生应用
数据库
(SQL/Oracle)
ROBO(
远程分支机构
)
管理
集群
容器
vSAN
vSphere + vSAN
…
硬盘
SSD
硬盘
SSD
硬盘
SSD
vSAN
数据存储
vSphere
6.5 U1
vSAN 6.6.1
vSphere
6.5.0d
vSAN 6.6
vSphere 6.5.0a
vSAN
6.5
vSphere 6.0 U2
vSAN
vSphere 6.0 U1
vSAN
6.1
vSphere 6.0
vSAN
6.0
vSphere 5.5
U1
vSAN
5.5
5
vSAN
与
vSphere
的版本号对应关系及其要求
同时支持混合和全闪存
支持
vSAN
延伸集群
(
双活
)
支持数据加密
支持
去
重
/
压缩
/
纠删码
vSphere
版本号
vSAN
版本号
VMware
客户将他们的基础架构托付给
vSAN
vSAN
客户数量
部署的国家
/
地区数量
基于全闪存的关键应用占比
>10,000
>100
83%
领先的
HCI
供应商
#
1
关键应
用已成
为
vSAN
主要
的客户使
用场景
远程区域办公室
灾备
9%
26%
IT
运维
38%
私有云
21%
*
关键应用生产环境
虚拟桌面
43%
非关键
-
生产环境
测试开发
53%
62%
48%
* Sources: VMware Customer survey, July 2015
客
户将其
超过
60%
的vSAN作为关键业务应用
的存储来
使用
vSAN
典型销售场景
8
应用重要性
VM
数量
B
A
D
开发测试
管理集群
SDDC/Cloud
VDI
生产应用
C
vSAN
主要
使用
场景和典型案例
9
用户场景
项目场景
客户挑战与需求
选择
vSAN
的原因
客户
开发测试
开发测试系统
开发测试云
传统存储管理复杂
降低存储投资
系统频繁变更
扩展性好
管理简单
无需购买高端存储
线性扩展
XX
证券
XX
开发银行
生产应用
新应用上线
U2VL
新业务系统性能保证
降低基础架构故障对应用带来的风险
灵活调整应用性能
降低设备成本与节能;
提高运营效率;大
幅提高性能;
大幅降低
TCO
;
存储虚拟化提高利用率
XX
银行
XX
移动
Bank of American
XX
度
VDI
虚拟桌面
桌面云
降低
VDI
的总体成本
提升用户体验和性能
简化存储管理
高性价比
无需在外置磁盘阵列上大额投资
可以随
VDI
规模在线扩展
管理简单
XX
证券
XXXABC
XX
基金
Cloud/
SDDC
私有云
城市云
行业云
资源池
高性能
I/O
海量存储池
高扩展性
成本压力
自动化部署
高
IO
吞吐
,
低延迟
大容量
,
容易扩展
高性价比
与云平台集成自动化部署
XX
移动
XX
广电
XX
电集团
A
B
C
D
XX
银行
vSAN
使用案例
业务的快速增长
传统存储采购周期长,业务难以快速上线
传统存储设备的总体拥有成本过高
传统共享存储体出现问题影响面大
存储服务级别依赖硬件,灵活性差
挑战
简化存储的采购模式
缩短存储供给周期,满足业务快速上线需求
大大降低存储和运维成本
分布式存储体系结构,故障时影响面积更小
内嵌在
vSphere
内核,高效率
vSphere
级别的系统稳定性
管理便捷,很短时间内即可生成数十
TB
级别的存储空间
非常容易进行纵向扩展或横向扩展
通过存储策略定义应用
SLA
Why vSAN
使用情况
生产应用
VDI
开发测试
办公
客户收益
场景
1
:
vSAN
用于包含客户关键业务应用在内的数据中心虚拟化环境
Scale Out
硬盘
SSD
vSphere+vSAN
硬盘
SSD
…………….
硬盘
SSD
硬盘
SSD
Scale
Up
SPBM
基于策略存储管理
本地磁盘
场景
2.
vSAN
和传统外部存储阵列共存于客户的虚拟化数据中心
12
vSAN
SAN
/
NAS
本地磁盘
本地磁盘
双向迁移数据
互相备份数据
混合存储架构
企业应用:
SAN
存储专用于核心
DB
vSAN
承载其他
VM
及数据
虚拟桌面:
vSAN
提供性能(
OS
盘)
NAS
提供容量(数据盘)
SAN/NAS
与
vSAN
可以互备关键数据,以及根据应用生命周期移动数据
APP
DB
VDI
VDP
VCOPS
VR
NSX
vNAS
13
SPBM
基于策略的存储管理
SPBM
基于策略的存储管理
本地磁盘
vSAN
本地磁盘
本地磁盘
SRM+VR
场景3
.
vSAN
用于
客户的异地灾备数据中心
SAN
/
NAS
融合架构平台(
vSphere+vSAN
)
桌面
资源池
vSAN
集群
1
应用
资源池
vSAN
集群
2
备份
资源池
vSAN
集群
3
交付统一的超融合基础架构平台
快
vSAN
基于对象存储更“懂”数据的存储,借助
SPBM+SSD
“主动”加速,性能更快;
桌面离应用更“近”,访问速度更快。
稳
服务器和存储层面均实现
HA
保护,可用性、可靠性及数据安全性得以保证
省
架构简单,扩展灵活、管理高效,无需外置存储,省心、省力、省钱。
场景4
.
vSAN
用于客户的数据中心
虚拟化、桌面虚拟化、数据备份和私有云环境
可靠性
可用性
可扩展性
VDP
、
VR
15
SPBM
基于策略的存储管理
本地磁盘
本地磁盘
本地磁盘
SPBM
基于策略的存储管理
本地磁盘
本地磁盘
本地磁盘
SRM
容灾管理
+
Replication
复制
站点 A(主)
站点
B
(
备
)
vSAN
存储
B
点生产数据
A
点生产数据容灾
B
点生产数据容灾
A
点生产数据
vSAN
存储
场景5
.
vSAN
同时用于客户的
IT
生产站点和容灾站点,并实现互为灾备
16
挑战
/
需求
原有存储宕机,导致业务中断
希望采用双活存储方案,但是传统存储厂商技术复杂,并且都有不同的限制
传统的存储供应商对于双活存储的报价已经超出预算,并且从长期而言,性能、容量的增长并不持续
传统的双活增加了复杂性,对运维管理人员有很大挑战
解决方案
在标准的
x86
服务器上部署
vSAN
成效
节约了大量成本
:与购买存高端的双活存储阵列相比
,
vSAN
双活的方案节省了
20% – 30%
的成本
.
易于
对硬件进行升级
:通过
更换部分组件或者整个节点,
一些组件,即可利用最新的服务器和硬件
日常维护费用降低
:无需独特的存储管理和双活管理的背景和经验。
“
通
vSAN
,我们可以在需要时随时添加容量或提高性能。
”
“
借助
vSAN
的
双活,即使整个机房发生故障,我们也不用担心会中断我们的运营。”
IT
部门经理
XX
高铁制造有限公司双活数据中心案
例
场景
6. vSAN
是构建双活数据中心的理想方案
17
关键业务
双活
保护收益
<=200 ms RTT over 100 mbps
L3 no multicast
<=200 ms RTT over 100 mbps
L3 no multicast
witness
vESXi
appliance
机房
1
vSAN
Active
L2 with Multicast
vSphere + vSAN
Stretched Cluster
< 5 ms RTT
over >
10/20/40 gbps
vCenter
机房
2
vSAN
Active
要点概览
故障域
Site
层面保护(
双活存储)
Site
故障时会自动切换
支
持
Oracle RAC
和
Windows
MSCS
优势概览
无需(多个)
存储网关
标准
x86
服务器
统一、简便的管理
允许有计划
的维护,
业务负载随需迁移
零
RPO
18
机房一
机房二
vSAN
分布式
虚拟化数据卷
备份存储(利旧)
园区网应用
集群
核心交换
园区网
双站点数据保存,实现站点级存储双活
架构简单,配置管理简单
无需额外虚拟网关,低成本
双活存储
仲裁站点
vESXi
appliance
跨机房的双活架构
vSAN 6.6
产品版本和许可方式
vSAN
STD
vSAN
ADV
vSAN
ENT
Features
(功能特性)
Storage Policy-Based
Management
-
基于存储策略的管理
Read / Write SSD
Caching
-
读
/
写
SSD
缓存
Distributed
RAID
-
分布式
RAID
vSphere® Distributed
Switch
- vSphere
分布式交换机
vSAN
Snapshots &
Clones
- vSAN
快照和克隆
Rack
Awareness
-
机架感知
Replication (5 min
RPO
)
-
复制
(RPO
为
5
分钟
)
)
All-Flash
Support
-
全闪存支持
Block Access (iSCSI
)
-
数据块访问
(iSCSI)
)
QoS – IOPS
Limits
–
服务质量
-IOPS
限制
Deduplication & Compression (All
Flash only
)
-
重复数据消除和压缩
(
仅限于全闪存
)
Erasure
Coding (All Flash only
)
-
纠删码
(
仅限于全闪存
)
Stretched Cluster with Local Failure
Protection
-
具有本地故障保护能力的延伸集群
Data-at-rest
Encryption
–
静态数据加密
New Feature in
vSAN
6.6
Existing feature in
vSAN
6.5
License
授权方式
按
CPU
数量、
VDI
桌 面数量授权
按
CPU
数量、
VDI
桌面数量授权;
同时包含在
Horizon ENT / ADV
中
按
CPU
数量或
VDI
桌面数量授权
以成本和容量优先
支持混合和全闪存
以性能
+
成本优先
支持混合和全闪存
以构建双活数据中心为优先
支
持对存储加密
客户选择
vSAN
的七大优势
20
vSAN
高可用性
最可靠的
Hypervisor(HA/
vMotion/FT/DRS)
支持多达
4
份虚拟机数据副本
高性能
全闪存单个节点支持高达
9
万以上
IOPS
简单
(
低管理量
)
vSAN
内嵌于
vSphere
内核,一键激活
自动化
基于存储策略自动化管理虚拟机存储容量与性能
低成本
TCO
成本节省
50%
以上
高扩展性
3-64
个节点在线纵向和横向扩展
(
对于
ROBO
,可以
2
个节点
)
灵活性
基于标准的
X86
服务器,无需依赖特定硬件服务器
vSAN
的
体系
结构
21
vSAN
是:内嵌在
vSphere
内核的分布式的对象存储
聚合了虚拟化管理程序的极其简单的虚拟机存储
vSphere
+
vSAN
...
软件定义的存储针对虚拟机进行了优化
超融合体系架构(分布式,横向和纵向扩展)
可在任何标准
x86
服务器上运行
将
HDD/SSD
池化为共享数据存储
提供企业级的可扩展性和性能
基于策略的自动化,满足
SLA
,可按虚机甚至
vmdk
级别的颗粒度设置存储策略
与
VMware
产品体系深度集成
概述
硬盘
SSD
硬盘
SSD
硬盘
SSD
vSAN
数据存储
用来取代
vSphere
后端的传统外置磁盘阵列
软
件定义存储之
vSAN
存储
自动化
:
存储管理的革命
23
操作
传统存储
vSAN
Raid
组创建
LUN
划分
Zoning
LUN
Masking/Mapping
VMFS
格式化
多路径软件设置
存储策略创建
为
vmdk
选择存储策略
存储策略选择
存储策略真正助力云计算
所需的存储服务级别
存储策略向导
SPBM
vSAN
对象
vSAN
对象
管理器
虚拟磁盘
(vmdk)
vSAN
对象可能
(1)
跨主机进行镜像,以及
(2)
跨磁盘磁盘
/
磁盘组
/
主机进行条带以符合虚拟机存储配置文件策略
数据存储配置文件
VMware SPBM -
存储策略决定服务级别(包括确定数据如何布局)
从上至下,围绕着业务
/
虚机为中心
每个虚机甚至每个vmdk在置备时都可配置各自的个性化QoS的属性。
用户以策略的形式指定所需设置,
然后vSAN会自动决定如何在集群中为每个
vmdk分配
存储
资源,以满足用户的QoS需求
vSAN
的体系结构 三张图
–
图
1
对象和组件
25
对象
副本
组件
存储策略
(
如
FTT,
条带宽度
)
决定未来数据如何放置
两份
个副本意味着
两
份数据
,
此时
FTT(
允许的故障数
) =
1
vSAN
的体系结构 三张图
–
图
2
条带按
固定
增长
26
当VMDK对象
被创建后,其实就已经
按照存储策略
决定了第一笔数据会
写入
哪些主机的哪些
盘
。也就是说,数据的布局
就已经固定下来了
。
之后新增的数据,仍会遵循同样的部署方式,按照条带分段大小以增量的方式去消费盘上的空间,体现出来的是对象容量在增长。直到
组件
超过255GB,
此时vSAN会新建一个组件
。这也是有时我们发现某个副本实际的组件数会比条带宽度大的原因。
条带是按1MB增量进行扩大的
vSAN
SSD
性能级别
从
vSAN HCL
里查询
A
级:每秒
2,500-5,000
次写入
B
级:每秒
5,000-10,000
次写入
C
级:每秒
10,000-20,000
次写入
D
级:每秒
20,000-30,000
次写入
E
级:每秒超过
30,000
次写入
示例
Intel
的
400 GB 910 PCIe
固态磁盘
每秒约
38000
次写入
Toshiba
的
200 GB SAS
固态磁盘
MK2001GRZB
每秒约
16000
次写入
工作负载定义
队列深度:
16
个或更少
传输长度:
4 KB
操作:写入
模式:
100%
随机
延迟:不到
5
毫秒
耐久性
10
次驱动器写入
/
天
(DWPD)
,以及
每个
NAND
模块的传输长度为
8 KB
时最多
3.5 PB
随机写入耐久性,而每个
NAND
模块的传输长度为
4 KB
时最多
2.5 PB
27
vSAN
的
体系结构 三张图
–
图
3
写性能主要由缓存层
SSD
决定
*
增加磁盘组,对性能增长有帮助;
vSAN
的体系结构
–
术语
混合配置和全闪存配置
磁盘组
(Disk Group)
vSAN
数据存储
(vsanDatastore)
对象
(Object)
组件
(Component)
28
29
混合
全闪存
每个主机
40K IOPS
每个主机
90K IOPS
+
亚毫秒级延迟
缓存层
读写缓存
写入内容会首先进行缓存,
而读取内容会直接进入容量层
容量层
SAS/NL SAS/SATA/
直连式
JBOD
容量层
闪存设备
读取内容会直接进入容量层
容量层
(
也即持久化层
)
vSAN
SSD
PCIe
Ultra
DIMM
SSD
PCIe
Ultra
DIMM
vSAN
的
两种配置
–
混合与全闪存
为本磁盘组加速
vSAN
磁盘组
(Disk Group)
vSAN
使用
磁盘组
这一概念将闪存设备和磁盘池化为一个管理构造。
以混合配置为例
磁盘组至少包含
1
个闪存设备
和
1
个磁盘
。
每台主
机最
多
5
个磁盘组
。
每
个磁盘组:
1
个
SSD + 1
至
7
个
HDD
闪存设备用于提供性能
(
读缓存
+
写缓冲区)。
磁盘用于提供存储容量。
不能
在没有闪存设备的情况下创建磁盘组。
30
磁盘组
磁盘组
磁盘组
磁盘组
每台主机:最多
5
个磁盘组。每个磁盘组:
1
个
SSD + 1
至
7
个
HDD
磁盘组
HDD
HDD
HDD
HDD
HDD
vSAN
数据存储
(vsanDatastore)
vSAN
是一种以文件系统
(vSAN FS)
的形式呈现给
vSphere
的对象存储解决方案。
该对象存储装载着集群中主机的
存
储资源
,并将它们呈现为一
整
个
共享数据存储。
仅限
该集群的成员才能访问
vSAN
数据
存储。
并非所有主机都需要提供存储,但是
建议
提供存储。
31
磁盘组
磁盘组
磁盘组
磁盘组
每台主机:最多
5
个磁盘组。每个磁盘组:
1
个
SSD + 1
至
7
个
HDD
磁盘组
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
数据存储
HDD
HDD
HDD
HDD
HDD
32
vsanDatastore
随磁盘组或盘增
加或减少,可在线扩大或缩小
vsanDatastore
随主机数增加或减少,可在线扩大或缩小
3
个主机扩展为
4
个主机后的
vsanDatastore
,从
4.86 TB
动态地在线地扩大为
6.48 TB
33
vSAN
对象
(Object)
vSAN
通过名为对象的灵活数据容器的形式管理数据。
虚拟机文件称为对象。
存在四种不同类型的虚拟机对象:
虚拟机主目录
(
主机命名空间
)
虚拟机交换文件
VMDK
快照
Memory
(
vmem
,虚拟机内存文件)
,
vSAN
5.5
时,当快照创建时,虚拟机内存以文件形式存放在
VM Home
里。而
在
vSAN
6.0
时,虚拟机内存在
vsanDatastore
里实例化为独立的对
象
虚拟机对象基于虚拟机存储配置文件中定义的
性能
和
可用性
要求划分为多个
组件
34
磁盘组
磁盘组
磁盘组
磁盘组
每台主机:最多
5
个磁盘组。每个磁盘组:
1
个
SSD + 1
至
7
个
HDD
磁盘组
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
网络
HDD
HDD
HDD
HDD
HDD
vSAN
组件
(Component)
vSAN
组件是
对象区块
,这些对象区块跨集群中的多台主机分布
,
以便容许同时发生多个故障并满足性能要求。
vSAN
利用
分布式
RAID
体系结构将数据分发到整个集群中。
组件的分布主要采用两种技术:
镜像
(RAID1)
条带化
(RAID0)
创建多少组件副本将基于对象
策略定义决定。
35
磁盘组
磁盘组
磁盘组
磁盘组
磁盘组
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
数据存储
副本
1
副本
2
RAID1
HDD
HDD
HDD
HDD
HDD
vmdk
的构成:对象和组件
36
对象
副本
组件
存储策略
(
如
FTT,
条带宽度
)
决定未来数据如何放置
两份
个副本意味着
两
份数据
,
此时
FTT(
允许的故障数
) =
1
对象和组件布局
37
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
网络
vSAN
存储对象
R1
R0
R0
R0
可用性定义为副本数量
vSAN
FS
vSAN
FS
vSAN
FS
rolo2.vmdk
虚拟机主目录对象格式化为
vSAN
FS
,以便在此对象上存储虚拟机的配置文件。
性能可能会包括条带宽度
vSAN
FS
rolo1.vmdk
rolo.vmx
、
.log
等
/vmfs/volumes/vsanDatastore/rolo/rolo.vmdk
磁盘组
HDD
磁盘组
HDD
磁盘组
HDD
磁盘组
HDD
磁盘组
HDD
vSAN
的技术细节
虚拟机存储策略
虚拟机存储策略可从
vSphere Web Client
主页屏幕访问。
39
vSAN
的存储功能
vSAN
当前向
vCenter
呈现
8
个
以
上
的存储功能。
40
1
、允
许的故障数(
FTT
)
允许的故障数(
FTT
)
定义存储对象能容许的主机、
磁盘或网络故障的数量
。若要容许“
n”
个故障,则要创建“
n+1”
个对象副本,并且需要“
2n+1”
台主机提供存储。
41
vSAN
网络
vmdk
vmdk
见证
esxi-01
esxi-02
esxi-03
esxi-04
约
50%
的
I/O
约
50%
的
I/O
vSAN
策略:“能容许的故障数量
= 1”
raid-1
vSAN
新增
纠删码(n=k+m)
:
k是数据块, m是校验块(
也即
FTT
值
)
vSAN
新特性
:
纠删码
(Erasure Coding
)
纠删
码
+ FTT=1 -> RAID 5
“FTT=1”
高可用性
RAID-5
3+1
(
最少
4
台主机,并非
4
的倍数,而是
4
台或更多即可
)
1.33
倍的开销,以往的开销是两倍
以往
20GB
数据消耗
40GB
空间
,
现在约为
27GB
可以实现在
vmdk
的颗粒度上,在
VMware SPBM
(基于存储策略的管理)里设置
不
支持
vSAN
Stretched Cluster
42
RAID-5
ESXi Host
parity
data
data
data
All Flash Only
ESXi Host
data
parity
data
data
ESXi Host
data
data
parity
data
ESXi Host
data
data
data
parity
“
FTT=2”
的高可用性
RAID-6
4+2
(
最少
6
台主机
)
1.5
倍的开销,以往的开销是
3
倍
以往
20GB
数据消耗
60GB
空间
,
现在约为
30
GB
可以实现在
vmdk
的颗粒度上,在
SPBM
里设置
不
支持
vSAN
Stretched Cluster
43
All Flash Only
ESXi Host
parity
data
data
RAID-6
ESXi Host
parity
data
data
ESXi Host
data
parity
data
ESXi Host
data
parity
data
ESXi Host
data
data
parity
ESXi Host
data
data
parity
vSAN
新特性
:
纠删码
(Erasure Coding
)
纠删
码
+ FTT=2 -> RAID 6
44
2
、纠
删
码
可按
vmdk
颗粒度的精细级别,在存储策略里设置
纠删码和去重压缩,显著提高空间
效
率
: 14
倍!
45
50%
与混合竞争产品相比,
全闪存每
GB
成本减少
2
倍
14
倍
14
倍
存储效率,无折中
* 通过重复数据消除和压缩而实现的改进会因工作负载不同而异。
VDI
完整克隆测试的结果。
$1/GB
All-Flash for as low as $1 per usable GB
3
、每个对象的磁盘条带数
每个对象的磁盘条带数
存储对象的每个副本所跨的硬盘数
46
vSAN
网络
条带
2b
见证
esxi-01
esxi-02
esxi-03
esxi-04
条带
1b
条带
1a
条带
2a
raid-0
raid-0
vSAN
策略:“能容许的故障数量
= 1” + “
条带宽度
= 2”
raid-1
4
、
IOPS
限制(
QoS
)
47
New in
基于每个虚机或每个
vmdk
,能以可视化的图形界面来设置
IOPS
的限制值
一键即可设置
消除
noisy neighbor
(相邻干扰)的不利影响
可以在
vmdk
的颗粒度上满足性能的服务等级协议(
SLA
),在
SPBM
里设置
在一个集群
/
存储池,可以为不同虚机
/vmdk
,提供不同的性能,将原本可能相互影响的负载区分开来
用户在图形界面中,可以看到每个
vmdk
的
IOPS
值,并通过颜色
(
绿色
,
黄色
,
红色
)
判断实际
IOPS
与
IOPS
限制值的关系
计算
IOPS
时,包括
vmdk
及其快照的读写操作
…
vSphere +
vSAN
vSphere &
vSAN
5
、
Software Checksum
(软件校验和)
48
概览
数据的端到端校验,检测并解决静默磁盘错误
软件校验和在集群级别默认是开启的,可以通过存储策略在
vmdk
级别关闭
在后台执行磁盘扫描(
Disk Scrubbing
)
如果通过校验和验证发现了错误,则重建数据
基于
4K
的块大小
采用
CRC32
算法(
CPU
开销小)
好处
提供更高的数据完整性
自动检测和解决静默磁盘错误(
silent disk errors
)
vSAN
vSAN
其他存储功能
6
、强制调配
如果选择“
Yes
”(是),则即使当前可用的资源不符合存储策略中指定的
策略,仍将调配对象。
7
、闪存读缓存预留
(%)
预留闪存容量,作为存储对象的读缓存。以对象逻辑大小的百分比形式指定。
8
、对象空间预留
(%)
调配虚拟机时要预留(实施厚配置)的存储对象的逻辑大小的百分比。
将对其余存储对象实施精简配置。
49
存储功能的
默
认值和最大值
50
存储功能
使用情形
值
容许的
故障数量
(
RAID
1 –
镜像)
冗余
默认
1
最大
3
每个对象的
磁盘条带数
(
RAID
0 –
条带)
性能
默认
1
最大
12
对象空间预留
厚配置
默认
0
最大
100%
闪存读缓存预留
性能
默认
0
最大
100%
强制调配
覆盖策略
禁用
vSAN
I/O
流
混合配置和全闪存配置,写
IO
的详细步骤
写
I/O
在混合配置和全闪存配置下是一样的。假设:
FTT=1
(也即两份副本);
虚机
vm
运行在主机
01
上;
主机
01
是
vm
的
VMDK
对象的属主;
该对象有两份副本,分别在主机
02
和主机
03
上;
步骤
1
,虚机
vm
发起写操作;
步骤
2
,
VMDK
对象的属主(也即主机
01
)触发写操作到虚拟磁盘;
步骤
3
,主机
01
克隆写操作,主机
02
和主机
03
各自独立地执行;
步骤
4
,主机
02
和主机
03
各自在自己的缓存层(
SSD
)的
log
上执行写操作;
步骤
5
,缓存写完,主机
02
和主机
03
分别立刻发确认信息给属主;
步骤
6
,属主收到了两个主机都完成
I/O
并确认的消息后;
步骤
7
,属主将一批已经确认过的写
I/O
合并,
Destage
(刷)到容量层的盘;
vSphere
vSAN
H3
H2
H1
6
5
5
2
virtual disk
3
1
4
4
7
7
写
IO
的性能,主要取决于
缓
存层采用什么
闪存设备
VMware SSD
性能级别
A
级:每秒
2,500-5,000
次写入
B
级:每秒
5,000-10,000
次写入
C
级:每秒
10,000-20,000
次写入
D
级:每秒
20,000-30,000
次写入
E
级:每秒超过
30,000
次写入
示例
Intel
的
400 GB 910 PCIe
固态磁盘
每秒约
38000
次写入
Toshiba
的
200 GB SAS
固态磁盘
MK2001GRZB
每秒约
16000
次写入
工作负载定义
队列深度:
16
个或更少
传输长度:
4 KB
操作:写入
模式:
100%
随机
延迟:不到
5
毫秒
耐久性
10
次驱动器写入
/
天
(DWPD)
,以及
每个
NAND
模块的传输长度为
8 KB
时最多
3.5 PB
随机写入耐久性,而每个
NAND
模块的传输长度为
4 KB
时最多
2.5 PB
53
vSphere
vSAN
H3
H2
H1
virtual disk
从缓存层将
IO
Destage(
刷
)
到容量层的
详细步
骤
混合配置中的容量层是
HDD
,
vSAN
使用
电梯算法(
Elevator Algorithm
)异步地将来自不同虚机的,缓存内的,按照每块
HDD
物理地址相邻的数据,批量地
Destage
(刷)进磁盘中,以此来提升性能
如果写缓存还有充足的空间时
,
vSAN
不会
频繁开启
Destage
的操作,这样就避免了对同一个数据的多次改写,屡屡刷进
HDD
里
全闪存配置中的容量层是
SSD
,被频繁写的数据(也即热数据)仍然停留在缓存层,而那些较少访问的数据才会被刷进容量层(也即提供容量的
SSD
)。
55
当VMDK对象
被创建后,其实就已经
按照存储策略
决定了第一笔数据会
写入
哪些主机的哪些
盘
。也就是说,数据的布局
就已经固定下来了
。
之后新增的数据,仍会遵循同样的部署方式,按照条带分段大小(1MB)以增量的方式去消费盘上的空间,体现出来的是对象容量在增长。直到
组件
超过255GB,
此时vSAN会新建一个组件
。这也是有时我们发现某个副本实际的组件数会比条带宽度大的原因。
条带是按1MB增量进行扩大的
如果条带为
2
,如何
写
进磁盘里
? 依次按
1 MB
增量进行条带化
vSphere
vSAN
H3
H2
H1
virtual disk
1
2
3
6
4
5
步骤
1
,虚机
vm
发起对
VMDK
对象的读操作
;
步骤
2
,
VMDK
属主(主机
01
)根据如下原则选取从哪个副本读:
1)
通过跨越不同副本实现负载均衡
2)
不一定要从属主所在主机的副本读
3)
一个给定的块,其上的数据会只从同一个副本读
;
步骤
3
,如果在读缓存里,直接读
;
步骤
4
,否则,从
HDD
读到读缓存,取代某些冷数据
;
步骤
5
,将数据返回给属主
;
步骤
6
,完成读操作,
将数
据返回给虚机
vm
;
全闪存配置下:
步骤
3
,如果数据在写缓存里(注意是写缓存,不是读缓存!),直接读;
步骤
4
,否则,直接
从容量层的
SSD
里读数据(无需复制到缓存层!);
混合配置,
读
IO
的详细步骤
谢 谢
!
相关文档
- DNA是主要的遗传物质 (2)2021-05-1032页
- 金蝶云:V7点1产品培训_成本_标准成2021-05-1025页
- 金蝶云:V7点1产品培训_BBC全渠道营2021-05-10145页
- 金蝶云:V7点1产品培训_制造_质量追2021-05-1043页
- 金蝶云:V7点1产品培训_财务_费用报2021-05-1027页
- 市委副书记在2019年省考指标部门主2021-05-109页
- 主要领导在集体约谈会的表态发言 2021-05-107页
- 计算机应用学生的自我介绍范文2021-05-104页
- 在全县处级领导和科级主要负责同志2021-05-107页
- 精编聚焦生态农产品加工和农耕文化2021-05-1010页