当前位置:首页 » 硬盘大全 » vsan缓存层分配
扩展阅读
webinf下怎么引入js 2023-08-31 21:54:13
堡垒机怎么打开web 2023-08-31 21:54:11

vsan缓存层分配

发布时间: 2023-05-14 11:25:46

① vsan中缓存盘使用hdd盘可以吗

可以。就是比较慢,综合体验会变差。有条件还是建议固态硬盘
不懂继续问,满意请采纳

② vSAN集群 无法识别磁盘处理

近期一直在搭建联想服务器vSAN集群,搭建过程中遇到了SD卡RAID问题一些问题,不过最终都一一解决,写一个值得记录的问题(坎坷了好几天)

搭建过程中有3台服务器都顺利加入vSAN集群,磁盘组缓存层和容量层都正常并且正常使用。最后再新增2个节点时出现2个节点只能识别部分磁盘,其中无法识别的磁盘中包括SSD,导致无法创建磁盘组,无法并入vsandatastore。

单节点共计8个磁盘,vSAN磁盘组无法识别闪存盘,但是节点物理层可以识别出闪存盘

尝试了很多种方法都没能解决,最后突然之间想到可能是由于vSAN集群是重建的,这块盘虽然现在没有被使用,但是它以前曾经被作为datastore,可能还有遗留的分区表。

SSH连接ESXI,查看磁盘信息

运行以下命令,获取所有磁盘信息

esxcli storage core device list

获取SSD磁盘信息

partedUtil get /vmfs/devices/disks/naa.

删除残留分区信息表

partedUtil delete /vmfs/devices/disks/naa. 1

partedUtil delete /vmfs/devices/disks/naa. 2

partedUtil delete /vmfs/devices/disks/naa. 3

刷新主机节点存储信息,终于可以正常刷出SSD!(开心)

另外一个节点出现2个磁盘无法识别,情况不太一样,报

Error: The primary GPT table states that the backup GPT is located beyond the end of disk.

需要重做分区,命令

partedUtil mklabel /vmfs/devices/disks/naa. msdos

partedUtil get /vmfs/devices/disks/naa.

再继续刷新,无法识别的2个磁盘可以识别了~!!

vSAN磁盘组配置走起~~

③ VSAN(Virtual Fabric)技术是什么

VSAN是Cisco的数培掘SAN交换机上面使用的一种虚拟化技术,把一个物薯核理交换机虚拟成多个逻辑交换机。
- VSAN类似于以太网里面的VLAN,每个VSAN都有自己的fabric service。
- 同一VSAN的设备可以互相通信,不同VSAN不能互相通信。
- 每个交换机最多可以支持256个VSAN。Vsan 1是默认vsan,vsan 4094是隔离vsan ,用户可用的vsan id是2到4093。
- 所有交换机端口默认在vsan 1;当有端口从用户自定义vsan删除后,该端口会自动分中塌配到vsan 4094,vsan 4094的设备都是disabled。
参考链接:https://community.emc.com/docs/DOC-16080

④ vsan 缓存命中率低

vsan 缓存命中率低有两个概念。
概念1:数字的表现上,比如50%,这和命中率100%相比,肯定是低的。概念2:命中率是否影响客户机使用了,如果没影响,即便命中率是1%,也无所谓,所以这个指标应该是由网民来衡量的。

⑤ ScaleIO、VSAN、MFS、Ceph这几种存储方案的区别是什么

ScaleIO:使用弹性聚合软件产品来革新数据存储,该软件产品利用本地磁盘来创建服务器存储区域网络 (SAN)。纯软件方式的基于服务器的存储区域网络 (SAN),将存储和计算资源聚合到一起,形成单层的企业级存储产品。 ScaleIO 存储弹性灵活,可以提供可线性扩展的性能。 其横向扩展服务器 SAN 体系结构可以从几个服务器扩展至数千服务器。
基本适用于全平台。https://community.emc.com/thread/198500
VSAN:VMware Virtual SAN™ 是面向虚拟环境中超聚合的软件定义存储.Virtual SAN 是第一款专为 vSphere 环境设计的策略驱动型存储产品,可帮助用户实现存储调配和管理的简化和优化。 通过使用虚拟机级存储策略,Virtual SAN 可自动将需求与底层存储资源进行动态匹配。借助 Virtual SAN,许多手动存储任务都可以实现自动化,从而提供更加高效和经济实惠的运维模式。对比 ScaleIO,它是仅限于VMware虚拟化平台的。
参考链接:Virtual SAN:软件定义的共享存储 | VMware 中国
MFS 是分布式文件系统,可参考:分布式存储系统MFS -
Ceph是一个 Linux PB 级分布式文件系统。

⑥ 2020-03-03 VMwarevSAN双活(延伸集群)站点间带宽设计(转载)

原文地址:
https://www.tinymind.net.cn/articles/98e64d56d38a52

笔者之前也分享过vSAN延伸集群的一些资料。在双活的设计中,站点之间带宽预估、脑列处理等问题,都是需要重点考虑的。本次向大家分享一下vSAN带宽带宽的设计原则。建议读者参照此前我分享过的《VMware的灾备与双活----我在vForum 2015分会场的分享(2)》一起进行阅读,这篇文章中已经包含的内容,本文将不再进行赘述。

一. 总体架构

vSAN延伸集群整体架构如下:一个有三个故障域,两个数据站点分别是一个故障域,仲裁站点是一个故障域。需要注意的是,vSAN延伸的三个故障域都属于是一个vSAN集群,而不是三个。

二.常规建议

两个数据站点之间的带宽很大程度上取决于vSAN承担的负载、总体数据量、可能的故障场景。

通常的建议参考如下:

(1)vSAN的数据站点之间,或者数据站点和仲裁站点之间的网络,二层和三层网络都可以支持,这降低了对大二层的要求。但是,我们推荐在数据站点之间使用二层网络。

(2)数据站点站点之间小于5ms之间的延迟(RTT)。数据站点与仲裁站点之间200的延迟不能超过200ms。

(3)数据站点和仲裁站点之间的带宽最不小于50-100Mbps.

(4)网络划分

管理网络:连接三个站点。二层或者三层网络

vSAN网络:连接三个站点。数据中心之间建议二层网络,与仲裁站点之间使用三层网络。

VM network:连接数据中心。建议二层网络,这样当虚拟机从一个数据站点vMotion或HA到另外一个数据站点时,IP地址不变。

vMotion网络:连接数据中心。二层,三层网络都可以。

三.数据站点之间的带宽需求

1.计算公式

在真实的业务场景中,全读或者全写的情况很少。更多的时候,用读写比率来衡量业务I/O特性是比较格式。以VDI场景的负载举例子。在负载峰值的情况下,读写比率通常是3:7。

例如:业务需要求IOPS的总量是10万,读写比率为3:7。由于vsan延伸集群本地读的特性,读操作不需要跨站点,因此考虑数据站点之间带宽只考虑跨站点写即可。

数据站点带宽计算公式是:

B=Wb md mr

B:Bandwidth。数据站点之间的带宽。

WB:Write Bandwidth数据站点之间的写带宽。

MD: Data Multiplier:数据乘数

MR:Resynchronization multiplier 再同步乘数

其中,数据乘数由vSAN元数据跨站点写开销等相关的操作组成的(除了数据意外,元数据也需要跨站点写)。VMware建议将这个数值设置为1.4。

再同步乘数指的是数据站点之间同步事件(例如vSAN组件的状态信息)的所需要的总开销。这是数值VMware建议设置为1.25。再同步乘数和数据乘数其实都是跨站点写数据的额外开销。这两个数值使用vSAN推荐值即可。

2.案例分析

案例1.

vSAN运行一个IOPS为1万的全写负载业务。写的block为4KB。这需要消耗40MB/s的数据站点间的带宽(4KB*10000),也就是320Mbps。

按照上一小节的计算公式:

B=320Mbps 1.4 1.25=560Mbps

因此,在这个负载情况下,vSAN数据站点之间需要的带宽至少应为560Mbps。

案例2.

vSAN运行负载为3万全写IOPS,4KB block size,这需要120MB/s(960Mbps)跨站点写数据吞吐量。

按照公式:

B=960Mbps 1.4 1.25=1680Mbps约等于1.7Gbps.

因此,在这个案例中,数据站点之间的带宽至少应为1.7Gbps.

四.数据站点与仲裁站点之间的带宽需求

1.计算公式

数据站点并不存放虚拟机的数据,只是用于投票使用,因此数据站点与仲裁站点之间的带宽计算公式与上面的不一样。

我在之前的文章提到过,vSAN是基于策略驱动的分布式存储。数据是以对象的方式存储在vSAN中的,一个VM在vSAN存储中的数据由一个或者多个组件组成,组件有如下类型:

VM Folder
VMware swap file
VMDK
快照
在vSAN中,当一个对象的大小大于255GB的时候,就会被自动划分成多个组件。仲裁站点与数据站点之间的计算公式如下:

1138B*NumComp/5seconds

其中,1138B这个数字是:当主站点down,备站点接管所有组件所需要的时间。我们想象一下,当主站点down,备站点将成为master。仲裁站点将会向新的master发送确认信息,确认master的角色已经发生了变更。从本质上讲,1138B是当主站点down以后,仲裁站点需要从元数据信息中获取主站点上所有组件已经failed并且随后由备站点take ownership的状态信息更新开销。当主站点down以后,仲裁站点与数据站点之间的带宽应足以让集群中所有部件的master ownership变更在5秒内发变更完成。

2.案例分析

案例1:

虚拟机由如下内容组成:

三个对象:

VM namespace
VMKD(小于255GB)
VM Swap file
FTT=1
Stripe width=1
以上配置的虚拟机数量是166个,那么仲裁站点就需要获取到996个组件信息。996=3 2 1*166.

我们用1000进行计算:B=1138B 8 1000/5s=1820800bps=1.82Mbps

VMware推荐预留10%的额外带宽用于信息双向传输:1.82*1.1=2Mbps。因此,在这个场景下,数据站点与仲裁站点的带宽应为2Mbps。
案例2:
虚拟机由如下内容组成:
三个对象:
VM namespace
VMDK(小于255GB)
VM Swapfile
此外:
FTT=1
Stripe width=2

如果具有以上配置的虚拟机数量为1500,那么仲裁站点将会维持18000个组件的状态信息。3 2 2 1 1500=18000
按照案例1中的算法:
B=1138B 8 18000/5s=32.78Mbps
B*1.2=36.05Mbps

因此,在这个场景下,数据站点与仲裁站点之间的带宽需要36.06Bbps。

根据上面的算法,可以提炼一个简单的公式用于在日常的评估,那就是2Mbps带宽可以维系1000个组件的状态信息。因此,在这个场景下,维系18000个组件,所需要的带宽是:18000/1000*2Mbps=36Mbps。

七.2-Node vSAN配置仲裁站点的带宽
在vSAN6.1中,支持2节点的vSAN集群。也就是我在< VMware的灾备与双活----我在vForum 2015分会场的分享(2)>中提到的vSAN延伸集群最小1+1+1,最大15+15+1的配置。

案例1:
2-Node配置中的虚拟机特性如下:虚拟机数量:25;VMDK/VM:1TB;FTT=1;Stripe width=1
上面我们提到过,vSAN中,一个vmdk组件最大为255G,因此每个VMDK由4个组件组成,此外由于FTT=1,在包含副本的情况下,每个vmdk由8个组件组成。加上VM namespace和swap文件(有副本),那么一个虚拟机的组件总数为12=4 2+2 2。25个虚拟机组件总量为300=25 12。
使用通用公式:300/1000 2Mbps=600Kbps。因此,在这种场景下,数据站点与仲裁站点之间的带宽应为600Kbps。
案例2:
在2-Node配置中,每个主机上有100个虚拟机,每个虚拟机有1TB的VMDK,FTT和stripe width均为1。 那么,组件的总量为:(1000/255+1+1) 2 100(VMs) 2(Hosts)=2400
按照通用公式,2400个组件,需要的带宽为2400/1000 2Mbps=4.8Mbps。因此在这个场景中,仲裁站点到数据站点之间的带宽需要4.8Mbps。
需要注意的是,如果一套vSAN延伸集群承担多个类型的业务负载,那么需要把这些业务负载先单独计算其需要的带宽,然后将其累加在一起。

⑦ 分布式存储最佳缓存比

作者:深入细节的 SmartX 一线技术团队

近日,VMware 发布了 vSAN 8,对存储架构进行了重大更新。其中最主要的变化,即引入了新的 Express Storage Architecture(ESA)架构:用“存储池”替代了原存储架构(OSA)中的“磁盘组”,并不再需要专用 SSD 承担缓存加速功能,一定程度上避免了 8.0 之前版本中的专用缓存盘利用率低、易发生缓存击穿等问题。
而值得一提的是,在 vSAN 大版本更新之前,SmartX 即通过统一缓存空间和智能冷热数据管理优化了分布式存储缓存机制,有效规避了上述问题。本文将通过重点解读 vSAN(以 vSAN 7 为例)和 SmartX 分布式块存储组件 ZBS* 缓存机制的原理,并测试对比两种缓存机制下虚拟机性能表现,让读者更好地了解两种技术实现机制的区别对业务可能带来的实际影响。

* ZBS 内置于 SmartX 超融合软件 SMTX OS,可与 SmartX 原生虚拟化 ELF 搭配提供服务。

本文重点
vSAN 7 采用划分读写缓存空间的机制,将缓存磁盘按照容量占比划分为写缓冲区(30%)和读缓存区(70%)。这种方式可能出现缓存利用率低、在访问数据量过大时导致缓存击穿,进而引起性能下降等问题。
ZBS 采用统一缓存空间的机制,并通过 2 级 LRU 算法对冷热数据进行管理,在充分利用缓存容量的同时避免了因访问量激增导致虚拟机性能下降的情况。
本文基于相同的硬件配置和 I/O 读写场景,分别测试 VMware 超融合(vSphere 虚拟化 + vSAN 分布式存储)写入 300 GB 数据、SMTX OS(ELF + ZBS)写入 500 GB 数据时虚拟机的性能表现。结果显示,vSAN 7 难以充分利用缓存介质,发生缓存击穿,导致存储性能下降;而 SMTX OS 即便在写入更多数据的情况下也未发生缓存击穿,虚拟机性能保持稳定。
场景问题
混闪配置是超融合或分布式存储现阶段的主流落地模式。混闪配置是指机器中的磁盘使用 SSD + HDD 混合组成,其中 SSD 磁盘作为数据缓存层,而 HDD 磁盘作为数据容量层。以该模式构建的分布式存储池通过软件算法进行冷热数据自动判断,在提供高性能的同时,还可获得较大的存储容量,进而提升资源利用率,获得相对全闪存储更高的性价比。

在将 SSD 磁盘用作数据缓存层时,部分超融合产品会将缓存容量(Cache)划分为读和写各自独立的两部分。例如,vSAN 7 及更早版本会将每个磁盘组(Disk Group)中的缓存磁盘,按照容量占比划分为写缓冲区(30%)和读缓存区(70%),当读取数据未命中缓存或者写缓存已满,将会直接从容量层进行读写。

⑧ 磁盘阵列卡对vSAN性能有没有影响

磁盘阵列卡对vSAN性能有一定的影响。
阵列性能的影响因素主要有以下几点:
1,RAID级别。
RAID0最高,因为只有条带化,对数据没有任何保护,可对多块磁盘同时读写。
RAID5其次,条带化的同时,在写数据时需要计算校验信息。
RAID6最慢,在写数据时需要计算两次校验信息。

2,RADI卡或控制器芯片的处理性能。这个芯片的计算能力决定着RAID建立、写数据和恢复的速度快慢。

3,高速缓存大小。缓存越大,IOps越大,对前端主机的响应速度越快。数据写到高速缓存后,主机便默认读写操作已完成。在后台数据再由缓存写入磁盘;如果缓存的清除算法得当,读数据操作在缓存内即可完成,可大大提高阵列读性能。
4,磁盘随机写性能。磁盘转数、单碟容量大小决定单盘的寻道速度,即磁盘性能。

⑨ VSAN为什么声明磁盘选项,我的没有可用磁盘

VSAN配置磁盘组要求是裸盘,也就是磁盘里没有数据或未被使用(ESXI系统所在的磁盘除外)。不然就得去把磁盘格式化 或者把分区删除了,让其恢复没有数据的状态 然后才能声明磁盘为缓存盘和容量层,让vSAN使用。

选中磁盘所在的ESXi主机→配置→存储设备→选中磁盘→清除分区

⑩ vSphere 5.5 vSAN 见证是怎么部署的

直通?需要配置VSAN么。配置直通有如下要求: 1,Raid卡需要支持直通 2,Raid卡不能配置闷配缓存 3,配置前罩氏方法,在慧散Bios里面配置,不同的硬件服务器不一样。IBM的有一个JDOB设置。 但愿能帮到你