当前位置:首页 » 硬盘大全 » 超融合缓存盘和数据盘计算公式
扩展阅读
webinf下怎么引入js 2023-08-31 21:54:13
堡垒机怎么打开web 2023-08-31 21:54:11

超融合缓存盘和数据盘计算公式

发布时间: 2023-05-19 05:51:05

‘壹’ 什么是超融合

超融合基础架构(Hyper-ConvergedInfrastructure,或简称“HCI”)也被称为超融合架构,是指在同一套单元设备(x86服务器)中不仅颤银仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括缓存加速、重复数据删除、在线数据压缩、备份软件、快照技术型旅等元素,而多节点可以通过网络聚合起来,实现模块化的无缝横茄租宴向扩展(scale-out),形成统一的资源池。

超融合架构图

‘贰’ 分布式存储最佳缓存比

作者:深入细节的 SmartX 一线技术团队

近日,VMware 发布了 vSAN 8,对存储架构进行了重大更新。其中最主要的变化,即引入了新的 Express Storage Architecture(ESA)架构:用“存储池”替代了原存储架构(OSA)中的“磁盘组”,并不再需要专用 SSD 承担缓存加速功能,一定程度上避免了 8.0 之前版本中的专用缓存盘利用率低、易发生缓存击穿等问题。
而值得一提的是,在 vSAN 大版本更新之前,SmartX 即通过统一缓存空间和智能冷热数据管理优化了分布式存储缓存机制,有效规避了上述问题。本文将通过重点解读 vSAN(以 vSAN 7 为例)和 SmartX 分布式块存储组件 ZBS* 缓存机制的原理,并测试对比两种缓存机制下虚拟机性能表现,让读者更好地了解两种技术实现机制的区别对业务可能带来的实际影响。

* ZBS 内置于 SmartX 超融合软件 SMTX OS,可与 SmartX 原生虚拟化 ELF 搭配提供服务。

本文重点
vSAN 7 采用划分读写缓存空间的机制,将缓存磁盘按照容量占比划分为写缓冲区(30%)和读缓存区(70%)。这种方式可能出现缓存利用率低、在访问数据量过大时导致缓存击穿,进而引起性能下降等问题。
ZBS 采用统一缓存空间的机制,并通过 2 级 LRU 算法对冷热数据进行管理,在充分利用缓存容量的同时避免了因访问量激增导致虚拟机性能下降的情况。
本文基于相同的硬件配置和 I/O 读写场景,分别测试 VMware 超融合(vSphere 虚拟化 + vSAN 分布式存储)写入 300 GB 数据、SMTX OS(ELF + ZBS)写入 500 GB 数据时虚拟机的性能表现。结果显示,vSAN 7 难以充分利用缓存介质,发生缓存击穿,导致存储性能下降;而 SMTX OS 即便在写入更多数据的情况下也未发生缓存击穿,虚拟机性能保持稳定。
场景问题
混闪配置是超融合或分布式存储现阶段的主流落地模式。混闪配置是指机器中的磁盘使用 SSD + HDD 混合组成,其中 SSD 磁盘作为数据缓存层,而 HDD 磁盘作为数据容量层。以该模式构建的分布式存储池通过软件算法进行冷热数据自动判断,在提供高性能的同时,还可获得较大的存储容量,进而提升资源利用率,获得相对全闪存储更高的性价比。

在将 SSD 磁盘用作数据缓存层时,部分超融合产品会将缓存容量(Cache)划分为读和写各自独立的两部分。例如,vSAN 7 及更早版本会将每个磁盘组(Disk Group)中的缓存磁盘,按照容量占比划分为写缓冲区(30%)和读缓存区(70%),当读取数据未命中缓存或者写缓存已满,将会直接从容量层进行读写。

‘叁’ 三节点超融合能跑一百个erp吗

我们通常讲的“超融合”云平台是一种云平台的架构模式圆兄态。这种模式不需要专用的存储设备,它采用分布式存储软件,利用每台计算节点上的本地硬盘构成存储集群。这样计算节点即有高可用的计算能力,又有高可用的存储能力。目前,超融合是多种云平台各种架构中综合性能最强、可用性最高、性价比最高的一种架构模式。

今天为大家介绍怎样用3台服务器搭建超融合云平台。本文将采用StarVCenter云平台软件来演示部署的具体过程,虽然我们只用了3台服务器节点,它却支持扩充更多的计算节点,不断提升集群的计算和存储能力。

目录
1 准备工作 1-2

1.1 获取安装镜像 1-2

1.2 准备硬件 1-2

2 安装操作系统 2-3

2.1 开启虚拟化支持 2-3

2.2 选择安装类型 2-3

2.3 选择系统磁盘 2-4

2.4 配置主机名、IP 2-5

3 部署集群 3-6

3.1 配置分布式存储 3-7

3.2 指定网卡用途 3-8

3.3 配置辅存 3-8

3.4 配置数据库集群 3-9

3.5 配置管控集群 3-10

3.6 一键部署 3-10

3.7 验证安装结果 3-11

4 资源初始化 4-12

4.1 初始化IP地址池 4-12

4.2 初始化模板库 4-12

5 创建虚拟机 5-14

5.1 创建虚拟机(克隆) 5-14

5.2 迁移虚拟机 5-16

6 附录 6-17

6.1 刻录安装U盘方法 6-17

6.2 扩充计算节点方法 6-18

1. 准备工作
1.1 获取安装镜像
从StarVCenter官网(www.starvcs.com)下载starve4-x86_64-StarVCenter-mini-xxx.iso

验证其md5码以确保文件没损坏,然后刻录成光盘或U盘,如果只是体验安装过程,你可以选择用在虚拟机中安装StarVCetner,也就不需要刻录了。本文也是采用3台虚拟机来代替3台服务器节点的,。

刻录U盘方法,见附录:刻录安装U盘方法。

1.2 准备硬件
准备3台服务器,配置如下表:

设备 最小规格 推荐规格 说明
CPU >=8核 >=16核 支持虚拟化VT
内存 >=16GB >=68GB
网卡 >=1块 >=1块(>=1Gb/s,2网口),服务器与交换机之间的连接线传输速率>=1Gb/s(不低于6类线标准),交换机的交换容量不低于128Gb/s 准备5个同网段的IP地址;3台服务器各配1个IP(192.168.12.6-8),集群管理额外需要2个IP(192.168.12.9-10)。
磁盘 >=2块,单块容量>=300GB >=5块SAS磁盘,单块容量>=1TB;额外配置一块>=600GB的SSD磁盘更佳 1块机械磁盘做系统盘;1块SSD磁盘做缓存磁盘(可选);其它磁盘用作分布式存储的数据盘。
本文实际采用的服务器配置规格如下:

CPU:10核;内存:20GB;网卡:1块千兆;磁盘:1块300GB + 3块500GB。(实际需要更高的配置)

将3台服务器的网卡连接到交换机上,确保3台服务器配置IP后能互通。

超融合架构中的硬件规划原则:

(1)每节点硬件配置尽量保持一致;

(2)单个超融合集群节点数越多性能越好;

(3)数据磁盘数越多性能越好,CPU和内存配置随磁盘数量和容量递增;

(4)缓存磁盘容量规划原则:每块数据磁盘+100GB,可由多块SSD磁盘构成,预留够后期扩展空间。

(5)缓存磁盘和数据磁盘无须做raid,因此使用raid直通或单盘raid0即可。

(6)配备独立万兆网络作橘源为存储网(建议不上连至汇聚交换机),随节点数增加,存储网交换机的交换容量越大性能越好。

2. 安装操作系统
下面我们使用之前刻录的安装盘,分别在3台服务器上进行引导安装。

2.1 开启虚拟化支持尘喊
用于部署StarVCenter的服务器需要开启CPU虚拟化支持(在bios中设置,同时选择从U盘启动)。

若在Vmware workstation虚拟机中体验安装本系统(实际使用时,请在物理服务器上安装),则创建虚拟机时须在 “处理器”中勾选“虚拟化”支持。

进入系统安装引导界面后,选择“Install StarVE”,按回车键。

注意:若在ESXI的虚拟机中体验安装本系统,请允许“混杂模式”和“MAC地址修改”,否则IP将无法访问。

2.2 选择安装类型
点击【SOFTWARE SELECTION】进入软件选择界面:

(说明:部署节点安装完成后,可通过浏览器打开“http://部署节点ip:9000”,从部署界面添加多台‘Basic节点’,并将这些节点以“多管控节点集群”的模式批量部署)。

我们将第一台服务器作为部署节点,选择“Deployment node”类型,第二、三台节点,都选择“Basic node”类型。

第一台节点选择,如下图:

第二、三台节点选择,如下图:

点击【Done】铵钮确认选择。

2.3 选择系统磁盘
点击【INSTALLATION DESTINATION】选项,选择第一块磁盘作为系盘,点击【Done】按钮确认选择,如下图:

2.4 配置主机名、IP
1.配置主机名

我们将三台服务器的主机名配置为starve001、starve002、starve003。

点击【NETWORK & HOSTNAME】,打开配置界面,在“Host name”栏输入主机名。

2.配置IP地址

(提示:这里配置1个IP即可。集群部署期间,此IP将被默认识别为管理网IP,自动移植到管理网网桥‘br-mgmt’上。)

我们将三台服务器的IP配置为192.168.12.6、192.168.12.7、192.168.12.8。

(1)点击【Configure】按钮,选择【IPv4 Settings】,将“Method”设置为【Manual】。

(2)点击【add】,输入IP、掩码、网关,点击【Save】,如下图:

点击【Done】按钮回到主页面,点击“Begin Installation”按钮开始部署。

点击“ROOT PASSWORD”,设置root账户密码。

约需要10分钟完成安装,安装完成后,点击“reboot”重启系统。

按照上述方法完成所有服务器的操作系统安装,并确保所有服务器之间IP互通。

3. 部署集群
集群的部署过程很简单,基本每一步直接点击“确认”即可。

通过浏览器(推荐Google Chrome)打开WEB部署界面,访问地址为:

http://部署节点IP地址:9000,实际为:http://192.168.12.6:9000,如下图:

点击【开始】进入“添加主机”页面,我们将3台服务器都加进来,输入起始IP为192.168.12.6,结束IP为192.168.12.8,如下图:

说明:确认所有服务器之间IP地址互通,再添加主机。

请将所有服务器添加至部署界面,并且确保“管理网IP”栏中所有节点状态均为在线(图标为绿色),如下图:

3.1 配置分布式存储
在顶部导航栏中点击【配置分布式存储】,进入配置界面,如下图:

说明:系统检测到添加的节点满足分布式存储部署条件时,将自动选择最优的分布式存储配置方式。点击“确定”即可。

3.2 指定网卡用途
在顶部导航栏中点击【指定网卡用途】,进入配置界面,系统将自动选择最简单的网络配置,直接点击“确定”即可,如下图:

3.3 配置辅存
在顶部导航栏中点击【配置辅存】进入辅存配置界面。

系统将自动选中默认配置,直接点击“确定”按钮即可,如下图:

3.4 配置数据库集群
在顶部导航栏中点击【配置数据库集群】,进入配置界面。

系统将自动选中数据库集群的默认配置,此处需要输入数据库集群浮动IP地址(此IP必须与数据库主、备节点IP互通),此处为192.168.12.9,然后点击“确定”按钮即可,如下图:

3.5 配置管控集群
点击顶部导航栏中【配置管控集群】,进入配置界面:

系统将自动选择管控集群节点,此处需要输入管控集群浮动IP地址(此IP必须与所有管控集群节点IP互通),此处为192.168.12.10,之后点击“确定”按钮即可,如下图:

3.6 一键部署
点击顶部导航栏中“一键部署”,进入部署界面,点击“开始一键部署”按钮开始执行部署,如下图:

等待部署完成后,界面将显示系统的访问地址,如下图:

3.7 验证安装结果
在部署完成界面点击“访问链接地址”打开管理界面(推荐Google Chrome),如下图:

默认业务操作员账号为:user/user

默认系统管理员账号为:admin/admin

通过默认账号密码user/user登录进入系统,在“资源管理”>“存储”菜单中能看到已构建完成的CEPH存储,如下图:

4. 资源初始化
4.1 初始化IP地址池
进入“资源管理”>“网络”菜单,选择“IP地址池”选项,点击“新增IP”按钮,在“默认子网”中录入一段可用的IP地址(后续创建虚拟机时,所需IP将从IP池中分配),如下图:

4.2 初始化模板库
StarVCenter的官网提供通用的虚拟机模板镜像供用户下载,如下图:

我们可以将需要用到的虚拟机模板下载下来,上传到自己的StarVCenter中。这里先下载centos76mini-x68-template.qcow2,在StarVCetner管理界面进入“虚拟机管理”>“虚拟机模板”菜单,点击“上传模板”按钮,选择刚才下载的模板文件,选择对应操作系统,点击“确定”按钮开始上传,如下图:

‘肆’ 【理论研究】漫谈云计算IT基础设施05-超融合技术

其实超融合这一块,放在云计算IT基础设施里面,不算是完全合适。你说它是分布式存储,但是它同时又是硬件服务器与存储;你说它算硬件,但是它又离不开分布式存储软件。

传统的IT基础设施架构,主要分为网络、计算、存储三层架构。但随着云计算与分布式存储技术的发展以及x86服务器的标准化,逐渐出现了一种将计算、存储节点融合在一起的架构--超融合架构。超融合将三层的IT基础设施架构缩小变成了两层。

2019年11月的Gartner超融合产品魔力象限中,领导者象限有5家:Nutanix、DELL、VMware、CISCO、HPE。(其中DELL vxRail一体机里面用的分布式存储软件也是VMware的VSAN,而VMware提供的则是VSAN纯软件的解决方案)

Nutanix能够成为超融合领导者中的领导者,自然是经过市场的充分验证,得到市场的认可。而且由于其公开资料(Nutanix 圣经)比较齐备,因此我们可以通过Nutanix一窥超融合的究竟。

这边就不搬运了,可以直接搜索引擎搜索“Nutanix圣经”或“Nutanix-Bible”,可以找到相应的官方文档。

引用自NUTANIX圣经 -“Nutanix解决方案是一个融合了存储和计算资源于一体的解决方案。该方案是一个软硬件一体化平台,在2U空间中提供2或4个节点。

每个节点运行着hypervisor(支持ESXi, KVM, Hyper-V)和Nutanix控制器虚机(CVM)。Nutanix CVM中运行着Nutanix核心软件,服务于所有虚机和虚机对应的I/O操作。

得益于Intel VT-d(VM直接通路)技术,对于运行着VMware vSphere的Nutanix单元,SCSI控制(管理SSD和HDD设备)被直接传递到CVM。”

个人总结: 从以上官方文档可知,2U的空间可以安装2~4个Nutanix节点(每个节点相当于1台物理服务器),所以设备装机密度非常高。每个节点都安装着虚拟化软件,并且在虚拟化层之上再运行着一台Nutanix的控制虚机(CVM),该虚机主要负责不同的Nutanix节点之间控制平面的通信。单个节点中配置有SSD硬盘与HDD硬盘,替代磁盘阵列作为存储使用,单个节点有独立的CPU与内存,作为计算节点使用。

1、基础架构

以3个Nutanix节点为例,每个节点安装有Hypervisor,在Hypervisor之上运行着客户虚拟机,并且每个节点有一台Nutanix控制器虚机Controller VM,配置有2块SSD与4块HDD,通过SCSI Controller作读写。

2、数据保护

Nuntanix与传统磁盘阵列通过Raid、LVM等方式作数据保护不同,而是与一般的分布式存储一样,通过为数据建立副本,拷贝到其他Nutanix节点存放,来对数据进行保护,Nutanix将副本的数量称作RF(一般RF为2~3)。

当客户虚机写入数据“见图上1a)流程”,数据先写入到本地Nutanix节点的SSD硬盘中划分出来的OpLog逻辑区域(相当于Cache的作用),然后执行“1b)”流程,本地节点的CVM将数据从本地的SSD的OpLog拷贝到其他节点的SSD的OpLog,拷贝份数视RF而定。当其他节点CVM确定数据写入完成,会执行“1c”流程,给出应答写入完成。通过数据副本实现对数据的保护。

数据从SSD中的OpLog写入到SSD以及HDD的Extent Store区域,是按照一定的规则异步进行的,具体详见下面的部分。

3、存储分层

Nutanix数据写入以本地落盘为主要写入原则(核心原则)。
当客户虚机写入数据是,优先考虑写入本地SSD(如果SSD已用容量未达到阀值),如果本地SSD满了,会将本地SSD的最冷的数据,迁移到集群中其他节点的SSD,腾出本地SSD的空间,写入数据。本地落盘的原则,是为了尽量提高虚机访问存储数据的速度,使本地虚机不需要跨节点访问存储数据。(这点应该是与VSAN与其他分布式文件系统最大原理性区别)

当整个集群的SSD已用容量达到阀值(一般是75%),才会将每个节点的SSD数据迁移到该节点的HDD硬盘中。

SSD迁移数据到HDD,并非将所有数据全部迁移到HDD,而是对数据进行访问度冷热的排序,并且将访问较少的冷数据优先迁移到HDD硬盘中。

如SSD容量达到95%的利用率,则迁移20%的冷数据到HDD;如SSD容量达到80%,则默认迁移15%的冷数据到HDD。

4、数据读取与迁移

Nutanix圣经引用-“ <u style="text-decoration: none; border-bottom: 1px dashed grey;">I/O和数据的本地化(data locality),是Nutanix超融合平台强劲性能的关键所在。所有的读、写I/O请求都借由VM的所在节点的本地CVM所响应处理。所以基本上不会出现虚机在一个节点,而需要访问的存储数据在另外一个物理节点的情况,VM的数据都将由本地的CVM及其所管理的本地磁盘提供服务。</u>

<u style="text-decoration: none; border-bottom: 1px dashed grey;">当VM由一个节点迁移至另一个节点时(或者发生HA切换),此VM的数据又将由现在所在节点中的本地CVM提供服务。当读取旧的数据(存储在之前节点的CVM中)时,I/O请求将通过本地CVM转发至远端CVM。所有的写I/O都将在本地CVM中完成。DFS检测到I/O请求落在其他节点时,将在后台自动将数据移动到本地节点中,从而让所有的读I/O由本地提供服务。数据仅在被读取到才进行搬迁,进而避免过大的网络压力。</u>

个人总结: 即一般虚机读写数据都是读本地节点的硬盘,如果本地节点硬盘没有该数据,会从其他节点先拷贝过来本地节点硬盘,再为本地虚机提供访问,而不是虚机直接访问其他节点。即要贯彻本地落盘的核心思想。

5、Nutanix解决方案的优缺点

Nutanix方案优点:

1) 本地落盘策略,确保虚机访问存储速度:虚机写入的数据都在本物理节点的磁盘上,避免跨节点存储访问,确保访问速度,减轻网络压力。

2) 采用SSD磁盘作为数据缓存,大幅提升IO性能:

见上表数据,从随机的读写来看,SSD的IO及带宽性能比SATA的性能提升了约1000倍。而结合Nutanix的本地落盘策略,虚机数据写入,仅有本地的2块SSD硬盘作为数据缓存负责写入数据。

但由于单块SSD硬盘的IO比传统阵列的SATA高出1000倍,IO性能大幅提升。(相当于要超过2000块SATA硬盘做Raid,才能提供近似的IO性能)。

3)永远优先写入SSD,确保高IO性能

数据写入HDD不参与,即使本地SSD容量满了会将冷数据迁移到集群其他节点SSD,然后还是SSD进行读写,确保高IO。后续异步将SSD冷数据迁移到HDD。

4)数据冷热分层存储

冷数据存放在HDD,热数据保留在SSD,确保热点数据高IO读取。

5)设备密度高,节省机房机架空间

2U可以配置4个节点,包含了存储与计算,比以往机架式/刀片服务器与磁盘阵列的解决方案节省了大量的空间。

Nutanix方案缺点:

1)本地落盘及SSD缓存方案确保了高IO,但是硬盘的带宽得不到保证。

传统磁盘阵列,多块SATA/SAS硬盘加入Raid组,数据写入的时候,将文件拆分为多个block,分布到各个硬盘中,同个Raid组的硬盘同时参与该文件的block的读写。通过多块硬盘的并行读写,从而提升IO与带宽性能。

而Nutanix的解决方案中,单个文件的读写遵循本地落盘的策略,因此不再对文件拆分到多块硬盘进行并行读写,而只有本地节点的SSD硬盘会对该文件进行写入。

虽然SSD硬盘的IO与带宽都是SATA/SAS的数百上千倍,但是SSD对比SATA/SAS硬盘在带宽上面只有2~3倍的速率提升,而传统Raid的方式,多块硬盘并行读写,虽然IO比不上SSD,但是带宽则比单块/两块SSD带宽高出很多。

因此Nutanix的解决方案适合用于高IO需求的业务类型,但是因为它的读写原理,则决定了它不合适低IO、高带宽的业务类型。

三)行业竞争对手对比:

VMWARE EVO RAIL软件包:VMware没有涉足硬件产品,但EVO: RAIL 软件捆绑包可供合格的 EVO: RAIL 合作伙伴使用。合作伙伴转而将硬件与集成的 EVO: RAIL 软件一起出售,并向客户提供所有硬件和软件支持。

而EVO:RAIL的核心,其实就是VSphere虚拟化软件+VSAN软件的打包。

但VSAN与Nutanix最大的一个区别,就是不必须完全遵循Nutanix的本地落盘的策略。可以通过设置条带系数,将本地虚机的数据读写设置为横跨多个节点的硬盘,默认条带系数为1,最大可设置为12个,即一个虚机的数据写入,可以同时采用12个节点的SSD硬盘并行读写。

通过这种方式,VSAN可以一定程度的弥补了Nutanix方案不适用于带宽要求高,IO要求低的业务类型的缺点。

但是这种横跨物理节点的访问流量,在虚机数量众多的情况下,肯定会给网络带来压力,网络带宽可能会成为另一个瓶颈。

其次VSAN可以集成在Hypervisor层,而不需要像Nutanix在Hypervisor上面运行一个控制虚机CVM。

再次,Nutanix支持KVM、Hyper-V、ESXI等多种Hypervisor,而VSAN仅支持自家的ESXI。

其他待补充:由于暂时未对VSAN进行实际部署测试,仅停留在对其原理的研究,因此,关于VSAN的部分待后续平台上线测试完成后继续补充。

‘伍’ 超融合一体机如何实现高可用

超融合一体机的高可用主要还是来源于自身的搭载的超融合软件,优秀的超融合系统在实现高可用的同时,必然也要保证高性能,高可靠性,高可扩展性等,以及运维的简化。

通常来说,评估超融合一体机可靠性主要参考以下三个维度:

  1. 系统的冗余度?通俗的说就是允许硬件坏多少?

  2. 出现故障后是否完全自动恢复?

  3. 恢复速度和时间?因为系统处于降级状态下是比较危险的状态,故障窗口越小,出现整体故障的可能性就越小。

以下给出详细的系统冗余与恢复机制对比。

‘陆’ 硬盘复制速度怎么计算(计算公式)(和缓储大小的关系)

硬盘复制速度没有计算公式,一般都是通过BEACHMARK等测试软件模拟日常应用中读取数据的方式测得的速率。硬盘的缓存越大硬盘读写速度当然越快了,因为物理磁头读写数据的速度总是没法与电子芯片读写速度比,所以缓存越大的硬行昌盘,就可以在读写数据时尽可能多地将数据放入缓存然后再通过磁头读写,有效避免由于磁盘读写过慢而拖整个系统的后腿。5年前,磁档姿扒盘缓存能达到2MB就已经册芹是很高端的产品了,现在1TB的硬盘的缓存动歁就是32MB甚至是64MB,随着技术的进步,硬盘配备大容量的缓存是趋势,将来电子硬盘定会大行其道。

‘柒’ oVirt超融合的设计分析(gluster和raid)

据初步分析,红帽ovirt超融合目前的架构应该是要和raid卡配合用才能达到理想的效果。ovirt超融合支持raid卡的JBOD(直通模式)、raid5、raid6、raid10模式,针对每一种模式ovirt在gluster这个层面做了性能优化(具体细节还不得知),这也是为什么ovirt超融合部署时要正确的选择对应硬件raid卡配置的模式。

ovirt超融合支持全SSD、全HDD、HDD+SSD缓存这三种存储配置模式,用raid卡将所有磁盘组成一个盘暴露给gluster创建成存储卷进行管理,当然也可以建多个raid实歼正现三种模式的共存,原版默认情况下是只能启用其中一种(我们先遵循这种方式),ovirt中是在一个盘上创建多个存储卷。

ovirt超融合的思路应该是尽可能用raid卡去管理磁盘、用gluster去管理节点,raid卡负责本机节点上的磁盘层面上的高可用,gluster利用副本负责集群中本节点的高可用,如此一来就简单多了氏亩悔:

1、我们重点关心节点而不是每个磁盘,降低管理磁盘的复杂度,扩容盘、替换盘这些让raid卡去干(要求raid卡要支持在线扩容,即使raid卡支持扩容还需要ovirt做对应的工作,目前是不支持的);

2、不再为磁盘个数纠结,只需要能够满足做raid的数量要求即可(当然要兼顾性能需求),盘数灵活;

3、数据盘可以是单块直通、做raid0或多块做raid5、6、10,系统盘可以是单块直通、做raid0或用两块做raid1,缓存盘可以是单块直通、做raid0或两块做raid1,根据这种情况我们制定几个推荐配置即可,比如安全要求高的就系统盘、缓存盘都做raid1,普通测试场景就可以单盘不做raid(不带raid卡的机器也可以用);

4、ovirt超融合gluster虽然是三副本,但有一个副本是起仲裁作用,几乎不占空间,所以在空间占用上是相当于两副本(另外现在支持压缩去重功能,存储空间的问题能够得耐尘到改善);

5、目前我们还是要先按官方推荐,3节点起步,3节点扩展;

6、关于磁盘状态监测我们通过raid卡的接口来做,没有raid卡则不支持此功能。

总体来说就是磁盘管理交给raid卡,gluster集群负责节点的高可用。

关于raid卡和JBOD:

有多种解释和理解,我总结了下:

1、JBOD类似于raid0,可以将多块盘组成一个,但是是顺序写入(一块盘写满写另一块),而不是raid0的分布式写入,所以性能上不如raid0;

2、某些raid卡中,JBOD就代表直通模式,可以每块磁盘都配成JBOD直通使用,也可以多块磁盘配成一个大盘直通使用。lsi的卡是这样,但有些oem它的厂商写的是non-raid,例如dell服务器。non-raid也代表直通模式。一般JBOD和其它raid模式不能同时用。

3、某些raid卡中,hba模式就是直通模式,adaptec的卡是这样,oem它的厂商例如dell也是这样叫的,另外adaptec有的卡是支持raid和hba直通同时用的。

4、raid卡厂商主要有lsi和Adaptec(被pmc收购了)两家,大部分服务器厂家都是oem它们的卡或用的它们的芯片,包括超微和浪潮。

‘捌’ 电脑虚拟内存如何设置,其计算公式是什么

以上的说法都是不对的。

虚拟内存的选择和你的实际物理内存的大小和你要运行的软件要占的内存大小有关。

比如,你没有谈誉什么大型软件要运行,自然内存就足够了,就不需要多少硬盘缓存。但是要是小软件打开得多,也需要加大虚拟内存。

再比如,如果你的电脑装了1G或者2G的内存,就大可把虚拟内存关掉.因为内存的速度要远远大于硬盘速度,如果你的内存大,就可以关掉虚拟内存来提高速度.

一般情况下,根据你对电脑的使用,可以适当设置虚拟缓存.如果你是256M内存,把虚拟缓存设置为含轮段500-1G都是没有问题的。桐知但最好把最大值和最小值设为相同,即不允许Windows自己调节虚拟内存大小。这样会节省CPU资源,提高运行速度。

‘玖’ Nutanix超融合和Vmware的超融合主要区别在哪

首先他们底层设计就不一样,Nutanix超融合是从分布式存储为出发点来进行集群设计,分布式系统设计相对没有包袱,Vmware则是在vSphere Kernel为基础开发的,有一些历史包袱(核心代码不能动);然后是集群规模,Nutanix超融合集群没有节点数量限制,实际生产中有很多超过100节点单集群的案例,而Vmware集群最大只允许64节点。另外在数据存储技术上,Nutanix超融合有数据本地化的功能,SSD盘是可以既做读写缓存也做用于存储数据,Vmware没有数据本地化的概念,网络的压力很大,SSD也只能作为缓存,容量还有限制,区别还是挺大的。。我就知道这些,满意的话记得采纳下