• 7.48 MB
  • 2021-05-10 发布

产品解决方案及主要应用场景

  • 57页
  • 当前文档由用户上传发布,收益归属用户
  1. 1、本文档由用户上传,淘文库整理发布,可阅读全部内容。
  2. 2、本文档内容版权归属内容提供方,所产生的收益全部归内容提供方所有。如果您对本文有版权争议,请立即联系网站客服。
  3. 3、本文档由用户上传,本站不保证质量和数量令人满意,可能有诸多瑕疵,付费之前,请仔细阅读内容确认后进行付费下载。
  4. 网站客服QQ:403074932
1 Vmware Vsan 产品 / 解决方案 主要应用场景 vRealize NSX v SAN Horizon vSphere VMware SDDC 平台: 业界最 稳 定、最安全、 支持最广泛应用 2 Apps APP APP APP APP APP APP APP APP APP APP APP APP APP And Many More ... Business Critical Apps Desktop Virtualization Big Data Cloud Native Apps /Container 3D Graphics Deep Learning w/ GPU Test / Dev / Tier 2/3 国内某用户 ESX 持续运行近 8 年 vSAN :为虚拟化和云计算而生、支持最广泛 应 用的超融合软件定义存储解决方案 关键业务应 用 ( ERP/SAP ) 虚拟桌面 (VDI) 灾难恢复 / 灾难规避 云原生应用 数据库 (SQL/Oracle) ROBO( 远程分支机构 ) 管理 集群 容器 vSAN vSphere + vSAN … 硬盘 SSD 硬盘 SSD 硬盘 SSD vSAN 数据存储 vSphere 6.5 U1 vSAN 6.6.1 vSphere 6.5.0d vSAN 6.6 vSphere 6.5.0a vSAN 6.5 vSphere 6.0 U2 vSAN vSphere 6.0 U1 vSAN 6.1 vSphere 6.0 vSAN 6.0 vSphere 5.5 U1 vSAN 5.5 5 vSAN 与 vSphere 的版本号对应关系及其要求 同时支持混合和全闪存 支持 vSAN 延伸集群 ( 双活 ) 支持数据加密 支持 去 重 / 压缩 / 纠删码 vSphere 版本号 vSAN 版本号 VMware 客户将他们的基础架构托付给 vSAN vSAN 客户数量 部署的国家 / 地区数量 基于全闪存的关键应用占比 >10,000 >100 83% 领先的 HCI 供应商 # 1 关键应 用已成 为 vSAN 主要 的客户使 用场景 远程区域办公室 灾备 9% 26% IT 运维 38% 私有云 21% * 关键应用生产环境 虚拟桌面 43% 非关键 - 生产环境 测试开发 53% 62% 48% * Sources: VMware Customer survey, July 2015 客 户将其 超过 60% 的vSAN作为关键业务应用 的存储来 使用 vSAN 典型销售场景 8 应用重要性 VM 数量 B A D 开发测试 管理集群 SDDC/Cloud VDI 生产应用 C vSAN 主要 使用 场景和典型案例 9 用户场景 项目场景 客户挑战与需求 选择 vSAN 的原因 客户 开发测试 开发测试系统 开发测试云 传统存储管理复杂 降低存储投资 系统频繁变更 扩展性好 管理简单 无需购买高端存储 线性扩展 XX 证券 XX 开发银行 生产应用 新应用上线 U2VL 新业务系统性能保证 降低基础架构故障对应用带来的风险 灵活调整应用性能 降低设备成本与节能; 提高运营效率;大 幅提高性能; 大幅降低 TCO ; 存储虚拟化提高利用率 XX 银行 XX 移动 Bank of American XX 度 VDI 虚拟桌面 桌面云 降低 VDI 的总体成本 提升用户体验和性能 简化存储管理 高性价比 无需在外置磁盘阵列上大额投资 可以随 VDI 规模在线扩展 管理简单 XX 证券 XXXABC XX 基金 Cloud/ SDDC 私有云 城市云 行业云 资源池 高性能 I/O 海量存储池 高扩展性 成本压力 自动化部署 高 IO 吞吐 , 低延迟 大容量 , 容易扩展 高性价比 与云平台集成自动化部署 XX 移动 XX 广电 XX 电集团 A B C D XX 银行 vSAN 使用案例 业务的快速增长 传统存储采购周期长,业务难以快速上线 传统存储设备的总体拥有成本过高 传统共享存储体出现问题影响面大 存储服务级别依赖硬件,灵活性差 挑战 简化存储的采购模式 缩短存储供给周期,满足业务快速上线需求 大大降低存储和运维成本 分布式存储体系结构,故障时影响面积更小 内嵌在 vSphere 内核,高效率 vSphere 级别的系统稳定性 管理便捷,很短时间内即可生成数十 TB 级别的存储空间 非常容易进行纵向扩展或横向扩展 通过存储策略定义应用 SLA Why vSAN 使用情况 生产应用 VDI 开发测试 办公 客户收益 场景 1 : vSAN 用于包含客户关键业务应用在内的数据中心虚拟化环境 Scale Out 硬盘 SSD vSphere+vSAN 硬盘 SSD ……………. 硬盘 SSD 硬盘 SSD Scale Up SPBM 基于策略存储管理 本地磁盘 场景 2. vSAN 和传统外部存储阵列共存于客户的虚拟化数据中心 12 vSAN SAN / NAS 本地磁盘 本地磁盘 双向迁移数据 互相备份数据 混合存储架构 企业应用: SAN 存储专用于核心 DB vSAN 承载其他 VM 及数据 虚拟桌面: vSAN 提供性能( OS 盘) NAS 提供容量(数据盘) SAN/NAS 与 vSAN 可以互备关键数据,以及根据应用生命周期移动数据 APP DB VDI VDP VCOPS VR NSX vNAS 13 SPBM 基于策略的存储管理 SPBM 基于策略的存储管理 本地磁盘 vSAN 本地磁盘 本地磁盘 SRM+VR 场景3 . vSAN 用于 客户的异地灾备数据中心 SAN / NAS 融合架构平台( vSphere+vSAN ) 桌面 资源池 vSAN 集群 1 应用 资源池 vSAN 集群 2 备份 资源池 vSAN 集群 3 交付统一的超融合基础架构平台 快 vSAN 基于对象存储更“懂”数据的存储,借助 SPBM+SSD “主动”加速,性能更快; 桌面离应用更“近”,访问速度更快。 稳 服务器和存储层面均实现 HA 保护,可用性、可靠性及数据安全性得以保证 省 架构简单,扩展灵活、管理高效,无需外置存储,省心、省力、省钱。 场景4 . vSAN 用于客户的数据中心 虚拟化、桌面虚拟化、数据备份和私有云环境 可靠性 可用性 可扩展性 VDP 、 VR 15 SPBM 基于策略的存储管理 本地磁盘 本地磁盘 本地磁盘 SPBM 基于策略的存储管理 本地磁盘 本地磁盘 本地磁盘 SRM 容灾管理 + Replication 复制 站点 A(主) 站点 B ( 备 ) vSAN 存储 B 点生产数据 A 点生产数据容灾 B 点生产数据容灾 A 点生产数据 vSAN 存储 场景5 . vSAN 同时用于客户的 IT 生产站点和容灾站点,并实现互为灾备 16 挑战 / 需求 原有存储宕机,导致业务中断 希望采用双活存储方案,但是传统存储厂商技术复杂,并且都有不同的限制 传统的存储供应商对于双活存储的报价已经超出预算,并且从长期而言,性能、容量的增长并不持续 传统的双活增加了复杂性,对运维管理人员有很大挑战 解决方案 在标准的 x86 服务器上部署 vSAN 成效 节约了大量成本 :与购买存高端的双活存储阵列相比 , vSAN 双活的方案节省了 20% – 30% 的成本 . 易于 对硬件进行升级 :通过 更换部分组件或者整个节点, 一些组件,即可利用最新的服务器和硬件 日常维护费用降低 :无需独特的存储管理和双活管理的背景和经验。 “ 通 vSAN ,我们可以在需要时随时添加容量或提高性能。 ” “ 借助 vSAN 的 双活,即使整个机房发生故障,我们也不用担心会中断我们的运营。” IT 部门经理 XX 高铁制造有限公司双活数据中心案 例 场景 6. vSAN 是构建双活数据中心的理想方案 17 关键业务 双活 保护收益 <=200 ms RTT over 100 mbps L3 no multicast <=200 ms RTT over 100 mbps L3 no multicast witness vESXi appliance 机房 1 vSAN Active L2 with Multicast vSphere + vSAN Stretched Cluster < 5 ms RTT over > 10/20/40 gbps vCenter 机房 2 vSAN Active 要点概览 故障域 Site 层面保护( 双活存储) Site 故障时会自动切换 支 持 Oracle RAC 和 Windows MSCS 优势概览 无需(多个) 存储网关 标准 x86 服务器 统一、简便的管理 允许有计划 的维护, 业务负载随需迁移 零 RPO 18 机房一 机房二 vSAN 分布式 虚拟化数据卷 备份存储(利旧) 园区网应用 集群 核心交换 园区网 双站点数据保存,实现站点级存储双活 架构简单,配置管理简单 无需额外虚拟网关,低成本 双活存储 仲裁站点 vESXi appliance 跨机房的双活架构 vSAN 6.6 产品版本和许可方式 vSAN STD vSAN ADV vSAN ENT Features (功能特性) Storage Policy-Based Management - 基于存储策略的管理 Read / Write SSD Caching - 读 / 写 SSD 缓存 Distributed RAID - 分布式 RAID vSphere® Distributed Switch - vSphere 分布式交换机 vSAN Snapshots & Clones - vSAN 快照和克隆 Rack Awareness - 机架感知 Replication (5 min RPO ) - 复制 (RPO 为 5 分钟 ) ) All-Flash Support - 全闪存支持 Block Access (iSCSI ) - 数据块访问 (iSCSI) ) QoS – IOPS Limits – 服务质量 -IOPS 限制 Deduplication & Compression (All Flash only ) - 重复数据消除和压缩 ( 仅限于全闪存 ) Erasure Coding (All Flash only ) - 纠删码 ( 仅限于全闪存 ) Stretched Cluster with Local Failure Protection - 具有本地故障保护能力的延伸集群 Data-at-rest Encryption – 静态数据加密 New Feature in vSAN 6.6 Existing feature in vSAN 6.5 License 授权方式 按 CPU 数量、 VDI 桌 面数量授权 按 CPU 数量、 VDI 桌面数量授权; 同时包含在 Horizon ENT / ADV 中 按 CPU 数量或 VDI 桌面数量授权 以成本和容量优先 支持混合和全闪存 以性能 + 成本优先 支持混合和全闪存 以构建双活数据中心为优先 支 持对存储加密 客户选择 vSAN 的七大优势 20 vSAN 高可用性 最可靠的 Hypervisor(HA/ vMotion/FT/DRS) 支持多达 4 份虚拟机数据副本 高性能 全闪存单个节点支持高达 9 万以上 IOPS 简单 ( 低管理量 ) vSAN 内嵌于 vSphere 内核,一键激活 自动化 基于存储策略自动化管理虚拟机存储容量与性能 低成本 TCO 成本节省 50% 以上 高扩展性 3-64 个节点在线纵向和横向扩展 ( 对于 ROBO ,可以 2 个节点 ) 灵活性 基于标准的 X86 服务器,无需依赖特定硬件服务器 vSAN 的 体系 结构 21 vSAN 是:内嵌在 vSphere 内核的分布式的对象存储 聚合了虚拟化管理程序的极其简单的虚拟机存储 vSphere + vSAN ... 软件定义的存储针对虚拟机进行了优化 超融合体系架构(分布式,横向和纵向扩展) 可在任何标准 x86 服务器上运行 将 HDD/SSD 池化为共享数据存储 提供企业级的可扩展性和性能 基于策略的自动化,满足 SLA ,可按虚机甚至 vmdk 级别的颗粒度设置存储策略 与 VMware 产品体系深度集成 概述 硬盘 SSD 硬盘 SSD 硬盘 SSD vSAN 数据存储 用来取代 vSphere 后端的传统外置磁盘阵列 软 件定义存储之 vSAN 存储 自动化 : 存储管理的革命 23 操作 传统存储 vSAN Raid 组创建 LUN 划分 Zoning LUN Masking/Mapping VMFS 格式化 多路径软件设置 存储策略创建 为 vmdk 选择存储策略 存储策略选择 存储策略真正助力云计算 所需的存储服务级别 存储策略向导 SPBM vSAN 对象 vSAN 对象 管理器 虚拟磁盘 (vmdk) vSAN 对象可能 (1) 跨主机进行镜像,以及 (2) 跨磁盘磁盘 / 磁盘组 / 主机进行条带以符合虚拟机存储配置文件策略 数据存储配置文件 VMware SPBM - 存储策略决定服务级别(包括确定数据如何布局) 从上至下,围绕着业务 / 虚机为中心 每个虚机甚至每个vmdk在置备时都可配置各自的个性化QoS的属性。 用户以策略的形式指定所需设置, 然后vSAN会自动决定如何在集群中为每个 vmdk分配 存储 资源,以满足用户的QoS需求 vSAN 的体系结构 三张图 – 图 1 对象和组件 25 对象 副本 组件 存储策略 ( 如 FTT, 条带宽度 ) 决定未来数据如何放置 两份 个副本意味着 两 份数据 , 此时 FTT( 允许的故障数 ) = 1 vSAN 的体系结构 三张图 – 图 2 条带按 固定 增长 26 当VMDK对象 被创建后,其实就已经 按照存储策略 决定了第一笔数据会 写入 哪些主机的哪些 盘 。也就是说,数据的布局 就已经固定下来了 。 之后新增的数据,仍会遵循同样的部署方式,按照条带分段大小以增量的方式去消费盘上的空间,体现出来的是对象容量在增长。直到 组件 超过255GB, 此时vSAN会新建一个组件 。这也是有时我们发现某个副本实际的组件数会比条带宽度大的原因。 条带是按1MB增量进行扩大的 vSAN SSD 性能级别 从 vSAN HCL 里查询 A 级:每秒 2,500-5,000 次写入 B 级:每秒 5,000-10,000 次写入 C 级:每秒 10,000-20,000 次写入 D 级:每秒 20,000-30,000 次写入 E 级:每秒超过 30,000 次写入 示例 Intel 的 400 GB 910 PCIe 固态磁盘 每秒约 38000 次写入 Toshiba 的 200 GB SAS 固态磁盘 MK2001GRZB 每秒约 16000 次写入 工作负载定义 队列深度: 16 个或更少 传输长度: 4 KB 操作:写入 模式: 100% 随机 延迟:不到 5 毫秒 耐久性 10 次驱动器写入 / 天 (DWPD) ,以及 每个 NAND 模块的传输长度为 8 KB 时最多 3.5 PB 随机写入耐久性,而每个 NAND 模块的传输长度为 4 KB 时最多 2.5 PB 27 vSAN 的 体系结构 三张图 – 图 3 写性能主要由缓存层 SSD 决定 * 增加磁盘组,对性能增长有帮助; vSAN 的体系结构 – 术语 混合配置和全闪存配置 磁盘组 (Disk Group) vSAN 数据存储 (vsanDatastore) 对象 (Object) 组件 (Component) 28 29 混合 全闪存 每个主机 40K IOPS 每个主机 90K IOPS + 亚毫秒级延迟 缓存层 读写缓存 写入内容会首先进行缓存, 而读取内容会直接进入容量层 容量层 SAS/NL SAS/SATA/ 直连式 JBOD 容量层 闪存设备 读取内容会直接进入容量层 容量层 ( 也即持久化层 ) vSAN SSD PCIe Ultra DIMM SSD PCIe Ultra DIMM vSAN 的 两种配置 – 混合与全闪存 为本磁盘组加速 vSAN 磁盘组 (Disk Group) vSAN 使用 磁盘组 这一概念将闪存设备和磁盘池化为一个管理构造。 以混合配置为例 磁盘组至少包含 1 个闪存设备 和 1 个磁盘 。 每台主 机最 多 5 个磁盘组 。 每 个磁盘组: 1 个 SSD + 1 至 7 个 HDD 闪存设备用于提供性能 ( 读缓存 + 写缓冲区)。 磁盘用于提供存储容量。 不能 在没有闪存设备的情况下创建磁盘组。 30 磁盘组 磁盘组 磁盘组 磁盘组 每台主机:最多 5 个磁盘组。每个磁盘组: 1 个 SSD + 1 至 7 个 HDD 磁盘组 HDD HDD HDD HDD HDD vSAN 数据存储 (vsanDatastore) vSAN 是一种以文件系统 (vSAN FS) 的形式呈现给 vSphere 的对象存储解决方案。 该对象存储装载着集群中主机的 存 储资源 ,并将它们呈现为一 整 个 共享数据存储。 仅限 该集群的成员才能访问 vSAN 数据 存储。 并非所有主机都需要提供存储,但是 建议 提供存储。 31 磁盘组 磁盘组 磁盘组 磁盘组 每台主机:最多 5 个磁盘组。每个磁盘组: 1 个 SSD + 1 至 7 个 HDD 磁盘组 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 数据存储 HDD HDD HDD HDD HDD 32 vsanDatastore 随磁盘组或盘增 加或减少,可在线扩大或缩小 vsanDatastore 随主机数增加或减少,可在线扩大或缩小 3 个主机扩展为 4 个主机后的 vsanDatastore ,从 4.86 TB 动态地在线地扩大为 6.48 TB 33 vSAN 对象 (Object) vSAN 通过名为对象的灵活数据容器的形式管理数据。 虚拟机文件称为对象。 存在四种不同类型的虚拟机对象: 虚拟机主目录 ( 主机命名空间 ) 虚拟机交换文件 VMDK 快照 Memory ( vmem ,虚拟机内存文件) , vSAN 5.5 时,当快照创建时,虚拟机内存以文件形式存放在 VM Home 里。而 在 vSAN 6.0 时,虚拟机内存在 vsanDatastore 里实例化为独立的对 象 虚拟机对象基于虚拟机存储配置文件中定义的 性能 和 可用性 要求划分为多个 组件 34 磁盘组 磁盘组 磁盘组 磁盘组 每台主机:最多 5 个磁盘组。每个磁盘组: 1 个 SSD + 1 至 7 个 HDD 磁盘组 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 网络 HDD HDD HDD HDD HDD vSAN 组件 (Component) vSAN 组件是 对象区块 ,这些对象区块跨集群中的多台主机分布 , 以便容许同时发生多个故障并满足性能要求。 vSAN 利用 分布式 RAID 体系结构将数据分发到整个集群中。 组件的分布主要采用两种技术: 镜像 (RAID1) 条带化 (RAID0) 创建多少组件副本将基于对象 策略定义决定。 35 磁盘组 磁盘组 磁盘组 磁盘组 磁盘组 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 数据存储 副本 1 副本 2 RAID1 HDD HDD HDD HDD HDD vmdk 的构成:对象和组件 36 对象 副本 组件 存储策略 ( 如 FTT, 条带宽度 ) 决定未来数据如何放置 两份 个副本意味着 两 份数据 , 此时 FTT( 允许的故障数 ) = 1 对象和组件布局 37 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 网络 vSAN 存储对象 R1 R0 R0 R0 可用性定义为副本数量 vSAN FS vSAN FS vSAN FS rolo2.vmdk 虚拟机主目录对象格式化为 vSAN FS ,以便在此对象上存储虚拟机的配置文件。 性能可能会包括条带宽度 vSAN FS rolo1.vmdk rolo.vmx 、 .log 等 /vmfs/volumes/vsanDatastore/rolo/rolo.vmdk 磁盘组 HDD 磁盘组 HDD 磁盘组 HDD 磁盘组 HDD 磁盘组 HDD vSAN 的技术细节 虚拟机存储策略 虚拟机存储策略可从 vSphere Web Client 主页屏幕访问。 39 vSAN 的存储功能 vSAN 当前向 vCenter 呈现 8 个 以 上 的存储功能。 40 1 、允 许的故障数( FTT ) 允许的故障数( FTT ) 定义存储对象能容许的主机、 磁盘或网络故障的数量 。若要容许“ n” 个故障,则要创建“ n+1” 个对象副本,并且需要“ 2n+1” 台主机提供存储。 41 vSAN 网络 vmdk vmdk 见证 esxi-01 esxi-02 esxi-03 esxi-04 约 50% 的 I/O 约 50% 的 I/O vSAN 策略:“能容许的故障数量 = 1” raid-1 vSAN 新增 纠删码(n=k+m) : k是数据块, m是校验块( 也即 FTT 值 ) vSAN 新特性 : 纠删码 (Erasure Coding ) 纠删 码 + FTT=1 -> RAID 5 “FTT=1” 高可用性  RAID-5 3+1 ( 最少 4 台主机,并非 4 的倍数,而是 4 台或更多即可 ) 1.33 倍的开销,以往的开销是两倍 以往 20GB 数据消耗 40GB 空间 , 现在约为 27GB 可以实现在 vmdk 的颗粒度上,在 VMware SPBM (基于存储策略的管理)里设置 不 支持 vSAN Stretched Cluster 42 RAID-5 ESXi Host parity data data data All Flash Only ESXi Host data parity data data ESXi Host data data parity data ESXi Host data data data parity “ FTT=2” 的高可用性  RAID-6 4+2 ( 最少 6 台主机 ) 1.5 倍的开销,以往的开销是 3 倍 以往 20GB 数据消耗 60GB 空间 , 现在约为 30 GB 可以实现在 vmdk 的颗粒度上,在 SPBM 里设置 不 支持 vSAN Stretched Cluster 43 All Flash Only ESXi Host parity data data RAID-6 ESXi Host parity data data ESXi Host data parity data ESXi Host data parity data ESXi Host data data parity ESXi Host data data parity vSAN 新特性 : 纠删码 (Erasure Coding ) 纠删 码 + FTT=2 -> RAID 6 44 2 、纠 删 码 可按 vmdk 颗粒度的精细级别,在存储策略里设置 纠删码和去重压缩,显著提高空间 效 率 : 14 倍! 45 50% 与混合竞争产品相比, 全闪存每 GB 成本减少 2 倍 14 倍 14 倍 存储效率,无折中 * 通过重复数据消除和压缩而实现的改进会因工作负载不同而异。 VDI 完整克隆测试的结果。 $1/GB All-Flash for as low as $1 per usable GB 3 、每个对象的磁盘条带数 每个对象的磁盘条带数 存储对象的每个副本所跨的硬盘数 46 vSAN 网络 条带 2b 见证 esxi-01 esxi-02 esxi-03 esxi-04 条带 1b 条带 1a 条带 2a raid-0 raid-0 vSAN 策略:“能容许的故障数量 = 1” + “ 条带宽度 = 2” raid-1 4 、 IOPS 限制( QoS ) 47 New in 基于每个虚机或每个 vmdk ,能以可视化的图形界面来设置 IOPS 的限制值 一键即可设置 消除 noisy neighbor (相邻干扰)的不利影响 可以在 vmdk 的颗粒度上满足性能的服务等级协议( SLA ),在 SPBM 里设置 在一个集群 / 存储池,可以为不同虚机 /vmdk ,提供不同的性能,将原本可能相互影响的负载区分开来 用户在图形界面中,可以看到每个 vmdk 的 IOPS 值,并通过颜色 ( 绿色 , 黄色 , 红色 ) 判断实际 IOPS 与 IOPS 限制值的关系 计算 IOPS 时,包括 vmdk 及其快照的读写操作 … vSphere + vSAN vSphere & vSAN 5 、 Software Checksum (软件校验和) 48 概览 数据的端到端校验,检测并解决静默磁盘错误 软件校验和在集群级别默认是开启的,可以通过存储策略在 vmdk 级别关闭 在后台执行磁盘扫描( Disk Scrubbing ) 如果通过校验和验证发现了错误,则重建数据 基于 4K 的块大小 采用 CRC32 算法( CPU 开销小) 好处 提供更高的数据完整性 自动检测和解决静默磁盘错误( silent disk errors ) vSAN vSAN 其他存储功能 6 、强制调配 如果选择“ Yes ”(是),则即使当前可用的资源不符合存储策略中指定的 策略,仍将调配对象。 7 、闪存读缓存预留 (%) 预留闪存容量,作为存储对象的读缓存。以对象逻辑大小的百分比形式指定。 8 、对象空间预留 (%) 调配虚拟机时要预留(实施厚配置)的存储对象的逻辑大小的百分比。 将对其余存储对象实施精简配置。 49 存储功能的 默 认值和最大值 50 存储功能 使用情形 值 容许的 故障数量 ( RAID 1 – 镜像) 冗余 默认 1 最大 3 每个对象的 磁盘条带数 ( RAID 0 – 条带) 性能 默认 1 最大 12 对象空间预留 厚配置 默认 0 最大 100% 闪存读缓存预留 性能 默认 0 最大 100% 强制调配 覆盖策略 禁用 vSAN I/O 流 混合配置和全闪存配置,写 IO 的详细步骤 写 I/O 在混合配置和全闪存配置下是一样的。假设: FTT=1 (也即两份副本); 虚机 vm 运行在主机 01 上; 主机 01 是 vm 的 VMDK 对象的属主; 该对象有两份副本,分别在主机 02 和主机 03 上; 步骤 1 ,虚机 vm 发起写操作; 步骤 2 , VMDK 对象的属主(也即主机 01 )触发写操作到虚拟磁盘; 步骤 3 ,主机 01 克隆写操作,主机 02 和主机 03 各自独立地执行; 步骤 4 ,主机 02 和主机 03 各自在自己的缓存层( SSD )的 log 上执行写操作; 步骤 5 ,缓存写完,主机 02 和主机 03 分别立刻发确认信息给属主; 步骤 6 ,属主收到了两个主机都完成 I/O 并确认的消息后; 步骤 7 ,属主将一批已经确认过的写 I/O 合并, Destage (刷)到容量层的盘; vSphere vSAN H3 H2 H1 6 5 5 2 virtual disk 3 1 4 4 7 7 写 IO 的性能,主要取决于 缓 存层采用什么 闪存设备 VMware SSD 性能级别 A 级:每秒 2,500-5,000 次写入 B 级:每秒 5,000-10,000 次写入 C 级:每秒 10,000-20,000 次写入 D 级:每秒 20,000-30,000 次写入 E 级:每秒超过 30,000 次写入 示例 Intel 的 400 GB 910 PCIe 固态磁盘 每秒约 38000 次写入 Toshiba 的 200 GB SAS 固态磁盘 MK2001GRZB 每秒约 16000 次写入 工作负载定义 队列深度: 16 个或更少 传输长度: 4 KB 操作:写入 模式: 100% 随机 延迟:不到 5 毫秒 耐久性 10 次驱动器写入 / 天 (DWPD) ,以及 每个 NAND 模块的传输长度为 8 KB 时最多 3.5 PB 随机写入耐久性,而每个 NAND 模块的传输长度为 4 KB 时最多 2.5 PB 53 vSphere vSAN H3 H2 H1 virtual disk 从缓存层将 IO Destage( 刷 ) 到容量层的 详细步 骤 混合配置中的容量层是 HDD , vSAN 使用 电梯算法( Elevator Algorithm )异步地将来自不同虚机的,缓存内的,按照每块 HDD 物理地址相邻的数据,批量地 Destage (刷)进磁盘中,以此来提升性能 如果写缓存还有充足的空间时 , vSAN 不会 频繁开启 Destage 的操作,这样就避免了对同一个数据的多次改写,屡屡刷进 HDD 里 全闪存配置中的容量层是 SSD ,被频繁写的数据(也即热数据)仍然停留在缓存层,而那些较少访问的数据才会被刷进容量层(也即提供容量的 SSD )。 55 当VMDK对象 被创建后,其实就已经 按照存储策略 决定了第一笔数据会 写入 哪些主机的哪些 盘 。也就是说,数据的布局 就已经固定下来了 。 之后新增的数据,仍会遵循同样的部署方式,按照条带分段大小(1MB)以增量的方式去消费盘上的空间,体现出来的是对象容量在增长。直到 组件 超过255GB, 此时vSAN会新建一个组件 。这也是有时我们发现某个副本实际的组件数会比条带宽度大的原因。 条带是按1MB增量进行扩大的 如果条带为 2 ,如何 写 进磁盘里 ? 依次按 1 MB 增量进行条带化 vSphere vSAN H3 H2 H1 virtual disk 1 2 3 6 4 5 步骤 1 ,虚机 vm 发起对 VMDK 对象的读操作 ; 步骤 2 , VMDK 属主(主机 01 )根据如下原则选取从哪个副本读: 1) 通过跨越不同副本实现负载均衡 2) 不一定要从属主所在主机的副本读 3) 一个给定的块,其上的数据会只从同一个副本读 ; 步骤 3 ,如果在读缓存里,直接读 ; 步骤 4 ,否则,从 HDD 读到读缓存,取代某些冷数据 ; 步骤 5 ,将数据返回给属主 ; 步骤 6 ,完成读操作, 将数 据返回给虚机 vm ; 全闪存配置下: 步骤 3 ,如果数据在写缓存里(注意是写缓存,不是读缓存!),直接读; 步骤 4 ,否则,直接 从容量层的 SSD 里读数据(无需复制到缓存层!); 混合配置, 读 IO 的详细步骤 谢 谢 !