1. 如何搭建私有云存储
虚拟化技术在企业私有云IT基础架构中仍然占据重要地位,同时,为了进一步提升应用效率,越来越多的生产环境也正在逐步变革,从以虚拟机为中心的架构向以容器和微服务为中心的云原生架构过渡,在这个过程中,存储如何有效支撑各种云主机应用与微服务应用,对于企业的私有云数据中心提出了新的挑战。
企业面临的问题
存储设施七国八制,硬件锁定缺少弹性
多种云平台对于存储的要求各不相同,块/文件/对象存储对应不同类型的应用,对外提供不同的服务接口,一种存储设备无法满足多种类型的云平台存储需求,而且传统存储在扩展性方面不能满足云时代大规模云平台对存储在线弹性扩容的需求,在可维护性方面则面临硬件架构绑定、运维复杂、难以维保等问题,而且这些问题会随着存储设备种类和数量的增多进一步放大。
业务调度变更频繁,资源不能共享
随着开发测试虚拟机以及容器、微服务平台在企业私有云平台的上线,大型企业的应用快速迭代、频繁发布对存储系统的支撑提出了严峻挑战,不同业务的数据保存在不同厂商的存储设备中,数据流动性差,不仅导致存储空间及性能资源浪费严重,数据灾备方案也很难统一化。
开源产品难以维护,不能实现企业级产品化
基于开源虚拟化技术的云平台如OpenStack为众多客户提供了快速构建私有云基础设施的能力,但是存储部分却不一样,开源的存储系统如Ceph虽然可以小规模部署试用, 但在大规模商用时会遇到很多问题:与硬件和企业级应用生态融合程度不高,严重依赖人工开发运维,在性能和服务质量方面不能满足核心业务的需求
杉岩私有云存储解决方案
杉岩私有云存储解决方案充分发挥了杉岩统一存储平台(USP)的云适配、开放等优势,支持各种复杂的应用负载,可灵活支撑私有云的虚拟化平台,如VMware、Citrix、OpenStack等虚拟化和云平台,以及通过Kubernetes软件一致性认证的所有容器云平台,如:Rancher、Openshift、Kubernetes等。
通过杉岩统一存储平台,用户可快速构建能够兼容所有主流虚拟化平台与容器微服务平台的统一存储资源池,面对各种虚拟机和微服务需求,池化的存储平台为大规模云环境提供了可靠的存储基础架构支撑,帮助用户从纷繁复杂的基础架构运维工作中解放出来,更关注于私有云上运行的业务本身。
客户价值
资源整合,链接企业信息孤岛
单资源池提供块、文件、对象多种存储服务,支持虚拟化平台和数据库应用;强大的存储资源生命周期管理能力,跨云平台在线迁移数据,实现数据共享和提高资源利用率;存储卷QoS等级和性能优先级在线调整,可根据企业资源和业务需求合理配置资源。
开放兼容,适配多种私有云平台
通过VMware VAAI和Citrix Ready认证,针对主流虚拟化平台优化I/O性能,大幅提升虚拟机访问的性能。通过OpenStack Cinder认证,可提供块和对象存储基础架构支撑支持容器平台CSI接口认证,为Kubernetes生态的容器应用提供块和文件存储服务。
智能管理,解决规模化运维难题
向导式安装部署和自助扩容配置,极大提升易用性和可维护性,管理自动化降低运维成本;针对大规模集群优化的可靠性管理,检测和修复硬盘软错误的专利技术,节约用户硬件投资。存储视角的管理功能,可视化展示主机、容器与存储的映射关系和性能监控协助管理员快速定位和解决问题。
2. 云端磁盘:网络巨头如何存储数据(上)
当你和成千上万的其他人同时提交搜索时,这个快照也正在不断地随着这些变化被更新着。与此同时,数据是由数以千计的独立服务器进程处理的,每个都各司其职,从计算出给你提供的相关联广告,到决定搜索结果的排列顺序。 支持谷歌搜索引擎的存储系统必须能够承受每天由运行于数以千计的服务器上的成千上万的独立进程所发出的数百万计的读写请求,几乎不能停机来备份或维护,还必须不断扩容以容纳由谷歌网页抓取机器人添加的日益扩大的众多页面。总体下来,谷歌每天要处理超过20PB。 这可不是谷歌可以从一个现成的存储架构就能完成的。而且对于运行超大规模的数据中心的其他网络和云计算巨头来说也是如此,比如亚马逊和Facebook。虽然大多数数据中心已经通过在一个存储区网络添加更多硬盘容量来解决扩充存储的问题,更多的存储服务器,通常是更多的数据库服务器,因为云环境的性能限制,这些方法却失效了。在云环境下,任何时候都可能有成千上万的活跃用户的数据,而且数据的读写在任何时刻都能达到数千TB。 这不仅仅是一个关于磁盘读写速度的简单问题。以这些卷上的数据流来讲,主要的问题是存储网络的吞吐量;即使有最好的交换机和存储服务器,传统的SAN架构也能成为数据处理的性能瓶颈。 接下来就是老生常谈的扩大存储的成本问题。超大规模网络公司增加容量的频率(举个例子,亚马逊现在每天为其数据中心增加的容量相当于整个公司在2001年全年的容量,根据亚马逊副总裁杰姆斯·汉密尔顿的说法),用大多数数据中心的同样做法来摆平所需的存储,依照所需的管理,硬件和软件成本,花费将是巨大的。这种花费在关系数据库被添加到混合数据库时甚至更高,这取决于一个组织对它们的分割和复制如何处理。 对于这种不断扩展和持久存储的需求,驱使互联网巨头——谷歌,亚马逊,Facebook,微软等等——采取一种不同的存储解决方案:基于对象存储的分布式文件系统。这些系统至少都部分受到其他分布式集群文件系统的启发,如Red Hat的全局文件系统和IBM的通用并行文件系统。 这些云巨头的分布式文件系统的架构把元数据(关于内容的数据)从它存储的数据中分开。这能通过多个副本对数据进行大量并行读写操作,并且抛掉了像“文件锁定”这样的概念。 这些分布式文件系统的影响远远超出了它们为超大规模数据中心而创建的范畴——它们会直接影响那些使用公共云服务的公司(比如亚马逊的EC2,谷歌的AppEngine和微软的Azure)如何开发和部署程序。公司,大学和政府机构寻找一种快速存储和提供大量数据访问的方法正日益变成受云巨头们启发的数据存储系统的新阶段。因此有必要了解一下它们的发展史和过程中所做的工程折衷方案。谷歌文件系统 谷歌是最早面对存储容量问题的主流网络公司中的一家。在2003年,谷歌工程师们找到了问题的答案,就是建立一个可为谷歌数据中心战略定制的分布式文件系统——谷歌文件系统(GFS)。 谷歌文件系统几乎是所有公司云服务的基础。它能够处理数据存储,包括公司的BigTable数据库和为谷歌的AppEngine“平台即服务”的数 据储存,并且为谷歌搜索引擎和其他程序提供数据。谷歌创建谷歌文件系统的设计决定推动了大量云架构下的软件工程技术,反之亦然。谷歌往往把程序数据储存在 大量的文件里,并把文件作为“生产者-消费者队列”使用,数以百计的机器收集的数据可能被写入同一个文件。这个文件可能会由另一个合并或分析数据的应用程 序处理——或许甚至是在数据正被写入的时候。 “这当中的某些服务器一定会出错——因此谷歌文件系统被设计为能够容忍这种错误,不会丢失(太多)数据”。 谷歌为自己保留了大量技术细节,原因很明显。但是由谷歌研究员Sanjay Ghemawat,首席工程师Howard Gobioff和高级工程师Shun-Tak Leung在2003首次发表的报告中提到,谷歌文件系统在设计上是带有一些非常具体的优先考虑的:谷歌想把大量便宜的服务器和硬盘驱动器变成一个可以储 存数百TB数据的能够在出错时自行管理可靠的数据存储。并且它需要被设计成按谷歌的方式收集和读取数据,允许多个应用程序同时把大批量数据添加到系统上, 且能以高速访问。 就像是一个RAID 5存储阵列通过多磁盘放置数据进行出错保护,谷歌文件系统把文件分成固定大小的块,复制到整个服务器集群。因为它们是用着廉价硬盘的电脑,其中一些服务器肯定会出错——因此谷歌文件系统被设计为能够容忍这种错误,不会丢失(太多)数据。 但是RAID和GFS的相同点就到此为止了,因为那些服务器可以分布于网络——既可以在第一个单独的物理数据中心也可以分散于不同的数据中心,取决 于数据的用途。GFS设计主要用于批量处理大量数据。重点是高速读取数据,而不是到文件中某个部分的访问速度,也不是数据写入到文件系统的速度。GFS提 供如此高输出是以牺牲更高密度的读写和更快速度的数据写入为代价的。正如Ghemawat和公司在文件中所说,“在文件中任意位置的小的写入是支持的,但 不一定非要高效。” 这种分布式的性质,随着GFS处理数据量的庞大——数百万的文件,当中很多都超过100MB而且通常都会变成GB——需要一些取舍,以便让GFS和 你通常安装在一台服务器上的文件系统有很大的不同。因为成百上千的独立进程可能同时对一个文件进行写入和读取,GFS需要支持“原子性”数据——在不影响 其他程序的情况下回滚出错的写入。而且它需要以非常低的同步开销保持数据的完整性以避免拖垮性能。 GFS由三层组成:GFS客户端,处理程序数据请求;管理服务器,用内存中的索引追踪数据文件名和所在区块的位置;还有数据存储服务器本身。最初, 为简单起见,GFS为每个集群使用一个单独的管理服务器,因此系统被设计成让管理服务器尽可能避开数据访问。谷歌已经发开出了一个分布式管理服务器系统, 可以控制数百台管理服务器,每一台都能处理大约1亿个文件。 当GFS客户端收到一个特定数据文件的请求,它需要从管理服务器请求数据的位置。管理服务器提供其中一个副本的位置,之后客户端就可以直接与存储服务器进行沟通,用来读写剩下的其他部分。管理服务器就不再参与其中了,除非有错误发生。 为确保数据是高度可用的,GFS舍弃了其他一些东西——比如各副本间的一致性。GFS确实坚持数据的原子性——如果写入失败,它将返回一个错误,然 后将写入回滚到元数据,并产生一个旧数据的副本。但是管理服务器在数据写入上的介入缺失意味着当数据写入到系统时,它不能立刻让副本遍布整个GFS集群。 在处理对数据同时访问和网络限制的必要性之外,该系统遵循谷歌所谓的“宽松一致性模型”。 这意味着GFS对于在必要时从旧的副本提供陈旧的数据完全不在乎——只要数据最终得以更新。管理服务器的追踪变化,或“突变”,当变化发生时,区块中的数据会用版本号来指示。由于一些副本被留下了(或变“旧了”),GFS管理服务器会确保这些区块在更新前不会送至客户端。 但这并不一定发生在已经连接到那些区块的部分。元数据的变更在管理服务器处理这些变更,并将它们反映在元数据前是不可见的。元数据也需要在多个位置 生成副本,以防管理服务器出错——那样的话整个文件系统就丢失了。而且如果在写入过程中管理服务器有错误发生,变更同样会消失。由于谷歌处理数据的方式, 这并不是一个大问题:程序使用的大部分的数据很少变化,而且当变化发生时,数据通常是扩充的而不是原地修改的。 当GFS在为2003年运行的谷歌应用设计出来时,离谷歌开始遭遇扩展性问题并不远。甚至是在公司收购YouTube之前,GFS开始碰壁——很大 原因是谷歌新添加的应用在64M文件大小下工作的不是很好。为了绕过它,谷歌转向了Bigtable,一种基于表格的数据存储,那依稀类似于数据库,位于 GFS之上。Bigtable大多是一次写入,因此变更被作为对表的扩展进行存储的——谷歌将其用于如对Google Docs进行版本控制的类似应用上。 如果你不是在谷歌工作,那上述内容太过于学术性了(虽然它可以帮助AppEngine,谷歌云存储和谷歌其他服务的用户更好地了解台面下是怎么事 儿)。虽然谷歌云存储通过一个网络接口提供了一个公开方式来储存和访问位于GFS上的文件,但是操控GFS的真正接口和工具并不是公开的。但报告称GFS 引领了更广泛使用的分布式文件系统的发展,如:Hadoop分布式文件系统。Hadoop分布式文件系统(HDFS) Hadoop是用Java开发的,作为Apache基金会的一个开源项目,它在网络公司和其他有“大数据”问题的公司间已经有了如下的口碑,它被称 之为“二十一世界的瑞士军刀”。所有这些宣传意味着,你很可能会发现你迟早要以某种形式用Hadoop处理问题而不是用其他的分布式文件系统——特别是当 微软开始将其列入Windows Server的扩展中的时候。 Hadoop是由开发者Doug Cutting在他儿子给一只玩具大象起名后用它命名的,“灵感”来自于GFS和谷歌的MapRece分布式计算环境。在2004年,Cutting 和其他工作于Apache Nutch搜索引擎项目的人试图寻求一种可以将抓取器和索引带向“网络规模”的方式,Cutting阅读了谷歌关于GFS和MapRece的论文并开 始动手开发自己的项目。虽然对于Hadoop的大多数热情来自于它由MapRece启发的分布式处理管理衍生出的分布式数据处理能力,但使用 Hadoop分布式文件系统还是因为它能对大量数据进行处理。 Hadoop是在Apache许可证下开发的,有许多商业和自由发行版可用。我用的版本来自Cloudera公司(Doug Cutting现在的东家)——Cloudera发行版包括了Apache Hadoop(CDH),Cloudera企业平台的开源版本,和Cloudera服务和配置特别版,它可免费支持50个节点。 HortonWorks,该公司与微软合作帮助后者把Hadoop移植到Azure和Windows Server,有其自己的基于Hadoop和HortonWorks数据平台,是一个受限的“技术预览版”。同样还有Apache Core的Debian包,和许多其他开源的或商业的基于Hadoop的某种形式的产品。 HDFS可被用于支持在大量廉价硬件和大数据下广泛的应用。但由于其架构,它不完全适合于通用数据存储,并且放弃了一定的灵活性。HDFS必须废除 某些经常与文件系统有关的事情,以确保它能更好地处理在分布着数百甚至数千台物理机器上的大量数据——如对数据交互访问这种事情。 虽然Hadoop运行于Java上,但是除了它的Java API之外还有许多种方式和HDFS进行交互。有一种C语言版本的API,通过Hadoop的命令行界面,文件可以通过HTTP请求浏览。还有 MountableHDFS,一个基于FUSE的扩展,允许HDFS被大多数操作系统作为一个文件系统挂载。开发者们正在制作一个WebDAV接口,让系 统可以进行基于网络的数据写入。 HDFS严格遵循了由谷歌的GFS奠定的架构路线,延续了它的三层,单管理服务器模型。每个Hadoop集群有一个叫做“名字节点”的管理服务器, 它来追踪关于位置和每个64M存储“块”副本的状态的元数据。数据通过集群中的“数据节点”复制——从属系统处理数据的读写。默认情况下每个块都会被复制 三次,而且复制的次数还可以通过改变集群设置来增加。 像GFS一样,HDFS让管理服务器尽可能快地避开读写循环,避免产生性能瓶颈。当从HDFS上访问数据的请求产生时,名字节点发回与这个请求最近 的数据节点上的块的位置信息。名字节点还可以通过一个“心跳”协议追踪每个数据节点的健康度并停止向不响应的数据节点发送请求,把它们标记为“死的”。 在切换后,名字节点就不处理任何更进一步的交互。对数据节点上数据的编辑被报告回名字节点并记录在日志里,之后用变动的数据副本对其他数据节点进行 复制。同GFS一样,这导致了一致性上相应的懒散形式,而且虽然名字节点将为最近修改的数据块发送新的请求,正在进行的工作仍然会碰到它们被分配到的数据 节点上的陈旧数据。 那不应该是经常发生的,然而,因为HDFS数据应该被“写入一次”——变动通常是扩充数据,而不是改动现有数据,为了更简单的一致性。而且由于Hadoop应用的性质,数据往往会大批量地写入HDFS。 当一个客户端发送要写入HDFS的数据时,它首先被客户端程序安置在一个临时的本地文件中,直到写入的数据达到了数据块的大小——默认64MB。之 后客户端联系名字节点并获得一个数据节点和要写入数据的块位置。这一过程对每个块的数据重复进行,一次一个块。这减少了产生网络阻塞的数量,但也减慢了写 入过程。但是HDFS是用于读取的,而不是写入。 HDFS可以减少网络写入流量的另一个办法是在于它处理复制的方式。通过激活一个叫做“机架感知”的HDFS特性来管理分布的副本,管理员可以为每 个节点指定一个机架序号,通过网络配置脚本中的一个变量指定它的物理位置。默认情况下,所有的节点都在同一个“机架”中。但是当机架感知被配置以 后,HDFS把每个块上的一个副本放置于同一个数据中心机架的另一个节点上,另一个则在不同的机架上,来减少网络中数据写入量——基于如下理由,就是一整 个机架出错的几率比一个单一节点出错的几率要小。理论上,它整体改善了HDFS的写入性能而没有牺牲掉可靠性。 与GFS早期版本一样,对于一个要成为高度可用的分布式系统,HDFS的名字节点创建一个单一的故障点。如果名字节点中的元数据丢失了,整个 HDFS环境就变成不可读了——就像一个缺少了文件分配表的硬盘。HDFS支持使用“备份节点”,它能与内存中的名字节点的元数据保持版本同步,并储存前 一系统状态的快照,以便能够在需要时回滚。快照也可以被分开储存在叫做“检查节点”的地方。
3. 分布式存储需要做磁盘阵列吗云存储呢
云存储和分布式存储描述的概念不一致,无法对比
云存储是指将数据集中存储在一起
分布式存储是指存储部署的一种方式
使用分布式存储不推荐配合raid部署,如果在部署了raid情况下一块硬盘损坏有可能会导致整个节点进入停机rebuild状态,而分布式存储系统本身就有自动修复重建的功能,更换损坏磁盘后并不会影响到节点的工作
4. 云储存的数据在服务器硬盘上是如何存储的
数据都是放在磁盘阵列上的而不是服务器硬盘上。
硬盘阵列不是技术,是一个实实在在的东西,可以理解成一大堆硬盘组成的阵列设备。
云存储是现在流行的概念,靠虚拟化和集群技术整合以前的存储,从而使可利用磁盘容量变得很大
5. 如何DIY一台高性价比的NAS个人云存储
家用NAS,不需要很高的配置,其实可以用一台性能较低的旧电脑进行改造,其关键在于四点:
稳定的运行。因为需要常年不关机,所以我们需要发热量不大的CPU,不需要显卡(甚至不装任何显卡驱动,使用默认的VGA模式就可以),家中如果有在性能上淘汰的电脑,尚能稳定运行的,就可以作为基础。系统方面,应该选择稳定性更好的windows server系统,而不是普通的windows系统。
流畅的网络。因为需要通过网络传输大量的数据,在当前宽带中国的大环境下,一个千兆级别的网卡是必备品。老电脑如果主板自带千兆网卡,也可以继续使用,否则就要采购一个新的千兆网卡安装上了。
海量的存储。普通PC电脑的硬盘供电口较少,一般只有3个,接3个3T硬盘的话,一般可以满足家用需要了。这是从性价比进行考虑,目前3T硬盘的容价比最高,1T200元。如果9T不够用,就要考虑服务器电源了,当时价格不是一般的贵,性价比缺失。
易用的软件。硬件准备好了以后就需要实现NAS功能的软件了。从易用角度考虑,不推荐专业软件,配置和使用都不是一般人能掌握的。推荐使用现在铺天盖地的网盘作为载体。比如:网络网盘,360网盘,乐视网盘等等,都是有很大容量的,部分网盘甚至是没有空间限制的,而且都是多平台的。只要把资料分类上传到网盘上,就可以在移动端下载使用了,视频文件更是可以在线看。
PS1:家中使用的话,就把硬盘上的资料进行共享或者高级一些的映射网络驱动器(很容易能查到教程的,推荐),就可以随意使用了。
PS2:如果文档类的小文件比较多,经常移动办公,可以使用金山快盘,文件是同时保存在客户端和服务器的,本地修改保存后自动上传,比较方便。缺点是容量小,但是很容易就能弄到1T左右,文档类的足够了。
6. 关于云存储的问题
简单的说云存储就是将你的本地存储虚拟开来,由其他服务商提供服务器和磁盘阵列来存放管理你数据,你不需要知道你的数据究竟存放在什么地方,你想用就可以提取出来。当然要做云存储,服务商就必须要具备巨大的存储空间,想想谷歌这么大的数据都有地方存放,他的集装箱数据中心遍布全球各地。
7. 小白用户也能玩转的“NAS”私有云存储:绿联私有云 DH2100
在数字时代里,对于我们每个人最重要的财富肯定就是个人数据了!如何安全、稳定的保存好自己越来越多的海量数据?免费的话可以用网盘,再高阶一点可以上NAS。目前市面想要免费使用的网盘可以说真的是少之又少,主要是体验差,主要集中在非会员用户会有速度限制!成品的NAS可以说是已经大大降低了入门门槛,但是依然需要设定各种参数和端口调试,对于一些小白用户来说真的是太复杂了,最近绿联推出了一款面向家庭NAS存储产品:绿联私有云 DH2100,最近刚借朋友的过来,下面分享一下使用体验。
这款绿联云 DH2100主打个人以及小型家庭使用,主要功能包括但不限于数据存储、云访问、云备份,所以可以把它看做是一台简易的“NAS”。另外它还能远程控制下载,支持网络网盘、迅雷下载等。包装正面是它的渲染图,左下角也标注了它的一定功能点:自动备份、极速传输、远程访问等。
背面是它的特点和配置介绍:搭载64位四核CPU,主频1.4GHz,2GB DDR4 高性能内存,千兆以太网口,USB接口,内置双盘插槽,支持3.5寸、2.5寸SATA III硬盘。使用的处理器主打硬件级影音文件解码,囊括近年来高端视频升级H265封装、4K@60P商用影音文件、HDR 10动态色彩技术,均为纯硬解原生输出,对于视频解码方面可以提供不错的支持,例如群晖和威联通等准专业NAS也是采用了同款处理器,综合性能非常强悍。
绿联云 DH2100的硬件信息:
打开包装之后,除了机身外,还标配有根千兆网线和DC电源适配器。配套的螺丝刀和螺丝是安装2.5英寸硬盘使用的。
搭配绿联云 DH2100使用的是希捷酷鱼硬盘, 3.5英寸大小,SATA 6Gb/s规格,256MB缓存,转速5400RPM,是叠瓦设计的SMR硬盘,2TB单碟的。 因为NAS存储需要长时间运行,所以建议小伙伴们在选择NAS存储的硬盘时尽量选针对NAS设计的硬盘,这样可以保证NAS长时间运行的稳定性,同时也保证存储资料安全完整,所以不要吝啬用于NAS的硬盘,数据无价。
绿联云 DH2100的设计格外的简洁,机身采用了比较耐看的金属灰色,在机身上是没有开机按键的。在机身正面可以看见采用了竖式排列指示灯和USB接口,从上到下:电源指示灯、网络指示灯、硬盘工作状态指示灯、USB-C 3.0接口、USB-A 3.0接口。
绿联云 DH2100的侧面带有绿联的LOGO标志,整机竖立放置的造型占据桌面空间还是非常少,整体尺寸作为家庭和个人用的云存储终端来说还是比较纤细小巧的,可以轻松放在路由器的附近。
背面可以看见最上方的是散热栏栅口, 实际使用感受机身的热量控制的还是相当不错。 接口方面分别是:RESET复位键、USB-A 2.0接口、RJ45千兆网口、DC电源输入接口。从接口设计来看,布局还是很不错的,前置是常用高速传输的USB 3.0接口,后置则是USB 2.0接口,对于日常使用频率来说还是USB 3.0比较多。
绿联云 DH2100的的顶盖,顶盖是放置硬盘的地方,通过按压顶盖的打开键,就可以弹起顶盖打开。
竖立插入硬盘,在机身底部还设计了风扇来辅助散热。
机身底部为了保证机身放置稳定性,设计了防滑橡胶脚垫,配合机身的重量可以很好的保证运行时足够的稳定。
安装硬盘的方式非常简单,只要轻按顶盖就可以抽拉出硬盘托架,支持3.5寸、2.5寸硬盘安装。顶盖的内侧,可以看见有一个二维码,这是用于安装绑定设备的。
硬盘托盘采用快拆式设计,先取下硬盘支架侧面的塑料隔板,放入硬盘之后再进行卡入固定即可。如果使用的是2.5英寸固态硬盘,需要使用下方预留的螺丝孔位进行螺丝固定安装。
安装好硬盘到托盘后,就可以放入绿联云 DH2100内部,安装会感觉有点托盘会有点“涩”,应该是为了硬盘减震的设计所以托盘空隙做得比较小。绿联云 DH2100是双硬盘设计, 最高支持高达36T(18+18)的海量存储容量 ,可以组普通模式或者Raid1模式。
普通模式: 两个完全独立的硬盘,容量为两个盘之和。优点是存储空间容量最大,缺点是如果损坏其中一个硬盘,该硬盘数据都无法重组。
Raid1模式: 一个盘存储、另一个盘做备份。Raid1是磁盘阵列中单位成本最高的,但提供了很高的数据安全性和可用性。优点就是当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据。缺点就是2块硬盘,相当于只能存储1块硬盘的容量。
初次接触NAS的小伙伴经常是一头雾水,要怎么才能使用NAS呢?其实类似绿联云 DH2100这种简易NAS已经精简化了,只需要把它与路由器的LAN接口连接,接入电源通电,下载客户端APP安装下载绑定,就可以使用了。
绿联云 DH2100的开机设定相当简单,可以用“傻瓜流程”来形容。接通电源前先安装手机端APP:绿联云。然后将绿联云 DH2100接通电源和网线之后,机身就会自动开始工作。打开绿联云APP之后自动扫描局域网内的绿联云 DH2100是否已经启动,或者可以直接扫描顶盖内侧的二维码绑定。
除了手机端支持iOS和安卓版本之外,绿联云还有Windows客户端以及MAC客户端。
检测到局域网内有绿联云 DH2100之后就可以绑定设备进行初始化了。首次初始化设备,你可以选择两种硬盘组模式,分别是RAID1的双盘备份模式以及使用两块硬盘全部空间的普通模式。如果这里只有1块硬盘的话,也可以选择使用RAID1模式的,未来增减硬盘需要备份数据,就直接安装硬盘插入另一块盘位便可。
进入APP管理界面后可以看到在页面顶部可以查看NAS的存储容量状态,中间是8个主要功能,分别是:自动备份、迅雷下载、Samba、网络网盘、照片、视频、文档、更多。点右下方的加号可以自动备份手机上的资料,在设备信息中可以自定义设备名称查看硬件配置。
点击“更多”,看见还有其他服务:外部存储、共享空间、加密空间、音频、离线下载,可以通过拖拉替换在展示首页。
在【 自动备份 】中,可以针对手机的照片视频备份,这个功能真的是太实用了。选项中设置好,以后每次打开APP,它就会自动把手机新增照片和视频上传,这样就不用担心手机存储空间不够用了,特别是我使用手机拍摄4K视频素材,要知道手机4K拍摄视频都是GB级别的,利用这个功能就可以上传到绿联云 DH2100,释放手机存储空间。
【离线下载】功能支持种子文件下载以及连接下载,连接支持HTTP、FTP以及磁力连接。我测试了离线下载功能,下载速度和网速以及资源热度都有关系,不过这个功能真的是很不错,可以 实现脱机下载,不用一直开着电脑挂机下载了。
在【我的用户】中,可以为绿联云 DH2100增加共享新用户。通过管理员账户来添加,通过引导来生成邀请码,这个邀请码仅限1个用户使用,5分钟刷新一次。
另一部手机账号登陆填写邀请授权码就可以加入使用绿联云 DH2100了,作为家庭云存储终端的话,每个用户都可以将个人数据同步到绿联云 DH2100上。添加共享用户之后,管理员账户可以禁用/删除共享用户,也可以通过转让管理员权限给共享用户。
共享空间: 存储的文件都可以通过共享来进行分享他人,共享内容只能共享用户才能浏览。共享的内容在共享空间中都是根据共享者来独立分开的,也便于管理。
发送: 现在的工作都使用微信比较多,工作时需要用到某文件时,就算身边没有电脑,也能拿出手机通过远程下载存在绿联云 DH2100上的文件,利用手机分享发送到微信上给对方,非常的方便。
加密空间: 目前个人数据安全也是非常敏感的问题,同样绿联云 DH2100针对个人数据安全设计有加密空间功能,需要密码才能登陆浏览加密空间存储的文件。如果忘记密码只能重置加密空间,所以小伙伴在使用的时候需要注意牢记登陆密码。在加密空间的文件,是相互无法看见的,这点隐私安全非常不错,多用户共同使用绿联私有云时,每个用户的数据都是独立存储,即便所有用户的数据保存在同一块硬盘,但每个人仅能查看自己非共享的资料。
【网络网盘】功能,通过登陆网络账号后,就可以直接通过网盘和绿联云 DH2100联通,实现双向备份工作,日常使用方面。即使没有充值网络会员,也是可以使用的,虽然速度会慢一些,但是通过绿联云 DH2100实现脱机挂机下载上传,不占用电脑资源,加上低功耗,非常适合挂机使用。
手机端APP:
关于传输速度的话因为每个地方和每个人的网络状态不同,家里的宽带是200M,这里我简单测试了一下绿联云 DH2100的上传速度。上图左侧为手机端通过局域网上传一段视频素材上传速度达到了21MB/s左右,右侧为通过外网访问绿联云 DH2100上传同样素材,速度达到了约2.18MB/s左右,可以说作为一款面向普通家庭和个人的云存储设备的话,绿联云 DH2100的备份速度还是相当让人满意的。
下载速度方面,我也通过局域网和远程外网访问的方式对绿联云 DH2100内的文件进行了测试,手机端通过局域网下载达到了51.64MB/s左右,通过外网下载达到了1.55MB/s左右。
电脑端客户端:
NAS的传输速度是关键,这决定了它是否能实时读取,保证流畅的使用体验。我使用的是领势MX5300路由,电脑安装了支持WiFi6的AX200网卡,通过5G频段接入路由器。测试一个7.6G的视频素材,从局域网内上传到绿联云 DH2100,上传速率是79MB/s左右。
在局域网内,从绿联云 DH2100下载到本地电脑,下载速率是72.4MB/s左右。通过局域网的上传下载文件测试看,整体的速度基本保持稳定不掉速,总体来说还是很满意的。
在不下载的前提下,通过软件打开存储在绿联云 DH2100内的 1080P电影 ,基本上等待个2、3秒就可以播放出来,而且能保持无卡顿的观看,体验非常不错。
支持不同设备的备份,可以使用APP或者电脑客户端进行备份手机或者电脑上的文件。通过测试,我利用电脑客户端进行备份,设置备份指定的文件夹目录,就开始备份了。
绿联云 DH2100集成了迅雷下载功能,登录迅雷账户后就可以使用了,支持下载的链接格式也是非常全面的,磁链接、BT种子等, 下载速度基本也可以跑满家里的网速 。和网络网盘一样,实现了脱机下载,这对于经常下载电影的小伙伴来说非常实用的。
绿联云 DH2100支持 Samba功能,手机端和电脑端都可以设置本地账号密码,设置之后就可以访问了。访问的方式很简单,通过输入访问地址,登录账号,就能进行硬盘的读写功能。对于本身硬盘空间不富裕的低配版本Mac电脑来说,真的是非常有用,挂载网络硬盘方式来增加硬盘空间,另外也可以直接查看备份资料的文件资料。
绿联云 DH2100前置有USB-C和USB-A 3.0接口,后置有USB-A 2.0 接口。通过接入U盘存储设备直接读取存储的内容,可以实现复制粘贴加密等操作,这样就能完全脱离电脑操控。特别是一些摄影的小伙伴,或者经常办公使用移动硬盘作为存储的小伙伴,就知道数据无价了!如果一不小心SD卡突然坏了,辛苦一天的拍摄内容没了,又或者第二天上班包中的移动硬盘丢失了,这时候有个备份都是救命的。当然谁也不想回到家后还专门开个电脑来复制粘贴备份这么的繁琐,可以使用绿联云 DH2100代替电脑来完成备份工作。
如果在绿联云 DH2100误删一些文件,是可以在手机APP中的【回收站】里面找到恢复的。选中被误删除的文件,点一下还原,这样误删除的文件又回来了。同样在电脑客户端也可以实现恢复或者彻底删除等操作。
绿联云 DH2100作为一款简易型的NAS,综合各方面性能来说,对于入门级不想过于复杂的用户来说,很不错的。当然功能方面也偏向于不爱折腾,但能很好的解决存储需求和数据保护的用户。另外集成了迅雷下载和网络网盘的功能,实现脱机下载功能,对于经常喜欢下载的用户来说能低功耗又不用开电脑挂机,真的非常方便。绿联云 DH2100也有一些需要改进的地方,例如加入自动备份、手机备份照片和视频的选择等。简易的操控,很大程度降低了专业NAS的使用门槛,当然比较友好的就是直接外网访问,不用任何的搭建设置,通过客户端登陆账号就能访问,上传下载的速度也基本能满足在线观影。希望这次分享能给计划选择简易NAS的小伙伴们有所帮助哟。
8. 如何部署云存储
如何部署云计算中的云存储?本文将从七个方面介绍,希望对大家有所帮助。 在公共云和私有云之间做出选择 明确你的选择:私有云还是公共云,哪种最符合你的机构呢?用最简单的方法来描述这两种云:公共云,即可以在互联网上,存储你的信息和运行应用程序;私有云,是在企业内部局域网中具有以上功能,相比之下具有更大的灵活性、可控制和安全性。 全面的虚拟化策略 当你明确选择之后,就要将更全面的虚拟化策略,选择数据中心最恰当的位置进行部署。将计算能力和存储资源虚拟起来是使云计算真正运作的关键。业界认为首要是虚拟化的服务器,但IT数据中心也同样需要虚拟化存储。反之,如果没有云计算,将大大降低企业在应用层上所能做的。 根据云特点提供最佳服务 当部署了云之后,就要知道何时使用公共云和私有云,以最经济的方式,提供给终端用户最恰当的服务。 对现有系统进行测试和研发,也许是最好的解决之道。私有云的优势是部署速度和安全优势,以虚拟化技术为基础建立的私有存储云,可以兼容多种服务器和桌面虚拟化平台。如果是风险较低的商业应用,则可建立公共服务的主机上。 云存储的两大好处 那么云存储能带给我们哪些好处呢?我们知道,选择一个云存储环境,提供一些必要工具,诸如自动存储分层和自动精简配置,以应对自动化的共同复杂任务。这一切都始于虚拟存储,它使得系统能够在正确的存储资源,以合适的时机,自动迁移工作量。如果没有它,则不能运行这些先进的功能。 存储架构选择要谨慎 此外,确定公司的数据存储解决方案,足以应对快速、无计划的数据增长之需求。选择一种存储架构,允许在任何方向存在合理有序增减比例。先要问问自己:需要给SAN增添哪些功能?如果不仅要停机,还要加之很多工作人员的重视和维护。那么说明,从这套系统中,也许你并没有得到真正最佳的应用价值。 云存储的功能广受业内推崇 云存储在业内逐步被推广,其功能得以广泛的认知。建立管理工具和报告功能,不可忽视SRM工具,如存储扣款和使用准确地收益性分析。 三种环境适合采用云存储 以下三种环境,最适合采用云存储。其实也正是这些实际需求,催生了云存储,也为云存储的发展提供了可能。 首先,判定是否存在着这种相关性,就是软硬件升级的费用和系统"无限"的可扩展性密切关联。此时就要注意了:当系统的能力受到限制后,一些架构隐含着惊人的再次认证许可费用。例如:你是否受到软件许可费的困扰呢?当你不得不再次增加驱动器或存储阵列的数量,这种做法实际上已超出了边际的最优成本。 其次,在系统维护过程中或软硬件重新配置时,确认存储环境是否在线、数据是否可用。包括软硬件,所有的存储系统有可能随时需要升级。当更新时,一定要知道在系统上会产生哪些影响。 最后,如果选择数据和灾难备份产品,如自动让快照和复制。但要提醒的是,提防一些隐性成本,如带宽要求。它可能限制一些快照的次数或复制(即每次都要更改或整个复制的容量)。