❶ 云存储的底层关键技术有哪些
一切以客户的需求为出发点。传统存储以文件系统为典型代表,但是随着数据爆炸性增长,传统文件系统已经无法满足对存储系统的容量、性能等需求,因此,云存储应运而生。云存储最大的特点是数据被集中存储在数据中心,公有云存储将客户数据存放在公有云服务商数据中心,而私有云存储则是将公有云存储能力私有化部署在客户自身的数据中心。既然提到了数据中心,可想而知云存储最大的特点应该是海量:解决数以PB至EB的数据存储需求。所有云存储技术面对的通用问题有如下几个:
扩展性:即容量可以通过横向增加服务器、磁盘等线性扩展,软件不应该成为限制扩展性的瓶颈;
可靠性:如何保证数据不丢失,或者丢失概率极低;
可用性:如何保证数据always online;
性能:不同的客户的不同使用场景对云存储性能提出不同需求。
❷ 目前主要三种数据存储方式
三种存储方式:DAS、SAN、NAS
三种存储类型:块存储、文件存储、对象存储
块存储和文件存储是我们比较熟悉的两种主流的存储类型,而对象存储(Object-based Storage)是一种新的网络存储架构,基于对象存储技术的设备就是对象存储设备(Object-based Storage Device)简称OSD。
本质是一样的,底层都是块存储,只是在对外接口上表现不一致,分别应用于不同的业务场景。
分布式存储的应用场景相对于其存储接口,现在流行分为三种:
对象存储: 也就是通常意义的键值存储,其接口就是简单的GET、PUT、DEL和其他扩展,如七牛、又拍、Swift、S3
块存储: 这种接口通常以QEMU Driver或者Kernel Mole的方式存在,这种接口需要实现Linux的Block Device的接口或者QEMU提供的Block Driver接口,如Sheepdog,AWS的EBS,青云的云硬盘和阿里云的盘古系统,还有Ceph的RBD(RBD是Ceph面向块存储的接口)
文件存储: 通常意义是支持POSIX接口,它跟传统的文件系统如Ext4是一个类型的,但区别在于分布式存储提供了并行化的能力,如Ceph的CephFS(CephFS是Ceph面向文件存储的接口),但是有时候又会把GFS,HDFS这种非POSIX接口的类文件存储接口归入此类。
❸ 存储器的原理是什么
存储器讲述工作原理及作用
介绍
存储器(Memory)是现代信息技术中用于保存信息的记忆设备。其概念很广,有很多层次,在数字系统中,只要能保存二进制数据的都可以是存储器;在集成电路中,一个没有实物形式的具有存储功能的电路也叫存储器,如RAM、FIFO等;在系统中,具有实物形式的存储设备也叫存储器,如内存条、TF卡等。计算机中全部信息,包括输入的原始数据、计算机程序、中间运行结果和最终运行结果都保存在存储器中。它根据控制器指定的位置存入和取出信息。有了存储器,计算机才有记忆功能,才能保证正常工作。计算机中的存储器按用途存储器可分为主存储器(内存)和辅助存储器(外存),也有分为外部存储器和内部存储器的分类方法。外存通常是磁性介质或光盘等,能长期保存信息。内存指主板上的存储部件,用来存放当前正在执行的数据和程序,但仅用于暂时存放程序和数据,关闭电源或断电,数据会丢失。
2.按存取方式分类
(1)随机存储器(RAM):如果存储器中任何存储单元的内容都能被随机存取,且存取时间与存储单元的物理位置无关,则这种存储器称为随机存储器(RAM)。RAM主要用来存放各种输入/输出的程序、数据、中间运算结果以及存放与外界交换的信息和做堆栈用。随机存储器主要充当高速缓冲存储器和主存储器。
(2)串行访问存储器(SAS):如果存储器只能按某种顺序来存取,也就是说,存取时间与存储单元的物理位置有关,则这种存储器称为串行访问存储器。串行存储器又可分为顺序存取存储器(SAM)和直接存取存储器(DAM)。顺序存取存储器是完全的串行访问存储器,如磁带,信息以顺序的方式从存储介质的始端开始写入(或读出);直接存取存储器是部分串行访问存储器,如磁盘存储器,它介于顺序存取和随机存取之间。
(3)只读存储器(ROM):只读存储器是一种对其内容只能读不能写入的存储器,即预先一次写入的存储器。通常用来存放固定不变的信息。如经常用作微程序控制存储器。目前已有可重写的只读存储器。常见的有掩模ROM(MROM),可擦除可编程ROM(EPROM),电可擦除可编程ROM(EEPROM).ROM的电路比RAM的简单、集成度高,成本低,且是一种非易失性存储器,计算机常把一些管理、监控程序、成熟的用户程序放在ROM中。
3.按信息的可保存性分类
非永久记忆的存储器:断电后信息就消失的存储器,如半导体读/写存储器RAM。
永久性记忆的存储器:断电后仍能保存信息的存储器,如磁性材料做成的存储器以及半导体ROM。
4.按在计算机系统中的作用分
根据存储器在计算机系统中所起的作用,可分为主存储器、辅助存储器、高速缓冲存储器、控制存储器等。为了解决对存储器要求容量大,速度快,成本低三者之间的矛盾,目前通常采用多级存储器体系结构,即使用高速缓冲存储器、主存储器和外存储器。
能力影响
从写命令转换到读命令,在某个时间访问某个地址,以及刷新数据等操作都要求数据总线在一定时间内保持休止状态,这样就不能充分利用存储器通道。此外,宽并行总线和DRAM内核预取都经常导致不必要的大数据量存取。在指定的时间段内,存储器控制器能存取的有用数据称为有效数据速率,这很大程度上取决于系统的特定应用。有效数据速率随着时间而变化,常低于峰值数据速率。在某些系统中,有效数据速率可下降到峰值速率的10%以下。
通常,这些系统受益于那些能产生更高有效数据速率的存储器技术的变化。在CPU方面存在类似的现象,最近几年诸如AMD和 TRANSMETA等公司已经指出,在测量基于CPU的系统的性能时,时钟频率不是唯一的要素。存储器技术已经很成熟,峰值速率和有效数据速率或许并不比以前匹配的更好。尽管峰值速率依然是存储器技术最重要的参数之一,但其他结构参数也可以极大地影响存储器系统的性能。
影响有效数据速率的参数
有几类影响有效数据速率的参数,其一是导致数据总线进入若干周期的停止状态。在这类参数中,总线转换、行周期时间、CAS延时以及RAS到CAS的延时(tRCD)引发系统结构中的大部分延迟问题。
总线转换本身会在数据通道上产生非常长的停止时间。以GDDR3系统为例,该系统对存储器的开放页不断写入数据。在这期间,存储器系统的有效数据速率与其峰值速率相当。不过,假设100个时钟周期中,存储器控制器从读转换到写。由于这个转换需要6个时钟周期,有效的数据速率下降到峰值速率的 94%。在这100个时钟周期中,如果存储器控制器将总线从写转换到读的话,将会丢失更多的时钟周期。这种存储器技术在从写转换到读时需要15个空闲周期,这会将有效数据速率进一步降低到峰值速率的79%。表1显示出针几种高性能存储器技术类似的计算结果。
显然,所有的存储器技术并不相同。需要很多总线转换的系统设计师可以选用诸如XDR、RDRAM或者DDR2这些更高效的技术来提升性能。另一方面,如果系统能将处理事务分组成非常长的读写序列,那么总线转换对有效带宽的影响最小。不过,其他的增加延迟现象,例如库(bank)冲突会降低有效带宽,对性能产生负面影响。
DRAM技术要求库的页或行在存取之前开放。一旦开放,在一个最小周期时间,即行周期时间(tRC)结束之前,同一个库中的不同页不能开放。对存储器开放库的不同页存取被称为分页遗漏,这会导致与任何tRC间隔未满足部分相关的延迟。对于还没有开放足够周期以满足tRC间隙的库而言,分页遗漏被称为库冲突。而tRC决定了库冲突延迟时间的长短,在给定的DRAM上可用的库数量直接影响库冲突产生的频率。
大多数存储器技术有4个或者8个库,在数十个时钟周期具有tRC值。在随机负载情况下,那些具有8个库的内核比具有4个库的内核所发生的库冲突更少。尽管tRC与库数量之间的相互影响很复杂,但是其累计影响可用多种方法量化。
存储器读事务处理
考虑三种简单的存储器读事务处理情况。第一种情况,存储器控制器发出每个事务处理,该事务处理与前一个事务处理产生一个库冲突。控制器必须在打开一个页和打开后续页之间等待一个tRC时间,这样增加了与页循环相关的最大延迟时间。在这种情况下的有效数据速率很大程度上决定于I/O,并主要受限于DRAM内核电路。最大的库冲突频率将有效带宽削减到当前最高端存储器技术峰值的20%到30%。
在第二种情况下,每个事务处理都以随机产生的地址为目标。此时,产生库冲突的机会取决于很多因素,包括tRC和存储器内核中库数量之间的相互作用。tRC值越小,开放页循环地越快,导致库冲突的损失越小。此外,存储器技术具有的库越多,随机地址存取库冲突的机率就越小。
第三种情况,每个事务处理就是一次页命中,在开放页中寻址不同的列地址。控制器不必访问关闭页,允许完全利用总线,这样就得到一种理想的情况,即有效数据速率等于峰值速率。
第一种和第三种情况都涉及到简单的计算,随机情况受其他的特性影响,这些特性没有包括在DRAM或者存储器接口中。存储器控制器仲裁和排队会极大地改善库冲突频率,因为更有可能出现不产生冲突的事务处理,而不是那些导致库冲突的事务处理。
然而,增加存储器队列深度未必增加不同存储器技术之间的相对有效数据速率。例如,即使增加存储器控制队列深度,XDR的有效数据速率也比 GDDR3高20%。存在这种增量主要是因为XDR具有更高的库数量以及更低的tRC值。一般而言,更短的tRC间隔、更多的库数量以及更大的控制器队列能产生更高的有效带宽。
实际上,很多效率限制现象是与行存取粒度相关的问题。tRC约束本质上要求存储器控制器从新开放的行中存取一定量的数据,以确保数据管线保持充满。事实上,为保持数据总线无中断地运行,在开放一个行之后,只须读取很少量的数据,即使不需要额外的数据。
另外一种减少存储器系统有效带宽的主要特性被归类到列存取粒度范畴,它规定了每次读写操作必须传输的数据量。与之相反,行存取粒度规定每个行激活(一般指每个RAS的CAS操作)需要多少单独的读写操作。列存取粒度对有效数据速率具有不易于量化的巨大影响。因为它规定一个读或写操作中需要传输的最小数据量,列存取粒度给那些一次只需要很少数据量的系统带来了问题。例如,一个需要来自两列各8字节的16字节存取粒度系统,必须读取总共32字节以存取两个位置。因为只需要32个字节中的16个字节,系统的有效数据速率降低到峰值速率的50%。总线带宽和脉冲时间长度这两个结构参数规定了存储器系统的存取粒度。
总线带宽是指连接存储器控制器和存储器件之间的数据线数量。它设定最小的存取粒度,因为对于一个指定的存储器事务处理,每条数据线必须至少传递一个数据位。而脉冲时间长度则规定对于指定的事务处理,每条数据线必须传递的位数量。每个事务处理中的每条数据线只传一个数据位的存储技术,其脉冲时间长度为1。总的列存取粒度很简单:列存取粒度=总线宽度×脉冲时间长度。
很多系统架构仅仅通过增加DRAM器件和存储总线带宽就能增加存储系统的可用带宽。毕竟,如果4个400MHz数据速率的连接可实现 1.6GHz的总峰值带宽,那么8个连接将得到3.2GHz。增加一个DRAM器件,电路板上的连线以及ASIC的管脚就会增多,总峰值带宽相应地倍增。
首要的是,架构师希望完全利用峰值带宽,这已经达到他们通过物理设计存储器总线所能达到的最大值。具有256位甚或512位存储总线的图形控制器已并不鲜见,这种控制器需要1,000个,甚至更多的管脚。封装设计师、ASIC底层规划工程师以及电路板设计工程师不能找到采用便宜的、商业上可行的方法来对这么多信号进行布线的硅片区域。仅仅增加总线宽度来获得更高的峰值数据速率,会导致因为列存取粒度限制而降低有效带宽。
假设某个特定存储技术的脉冲时间长度等于1,对于一个存储器处理,512位宽系统的存取粒度为512位(或者64字节)。如果控制器只需要一小段数据,那么剩下的数据就被浪费掉,这就降低了系统的有效数据速率。例如,只需要存储系统32字节数据的控制器将浪费剩余的32字节,进而导致有效的数据速率等于50%的峰值速率。这些计算都假定脉冲时间长度为1。随着存储器接口数据速率增加的趋势,大多数新技术的最低脉冲时间长度都大于1。
选择技巧
存储器的类型将决定整个嵌入式系统的操作和性能,因此存储器的选择是一个非常重要的决策。无论系统是采用电池供电还是由市电供电,应用需求将决定存储器的类型(易失性或非易失性)以及使用目的(存储代码、数据或者两者兼有)。另外,在选择过程中,存储器的尺寸和成本也是需要考虑的重要因素。对于较小的系统,微控制器自带的存储器就有可能满足系统要求,而较大的系统可能要求增加外部存储器。为嵌入式系统选择存储器类型时,需要考虑一些设计参数,包括微控制器的选择、电压范围、电池寿命、读写速度、存储器尺寸、存储器的特性、擦除/写入的耐久性以及系统总成本。
选择存储器时应遵循的基本原则
1、内部存储器与外部存储器
一般情况下,当确定了存储程序代码和数据所需要的存储空间之后,设计工程师将决定是采用内部存储器还是外部存储器。通常情况下,内部存储器的性价比最高但灵活性最低,因此设计工程师必须确定对存储的需求将来是否会增长,以及是否有某种途径可以升级到代码空间更大的微控制器。基于成本考虑,人们通常选择能满足应用要求的存储器容量最小的微控制器,因此在预测代码规模的时候要必须特别小心,因为代码规模增大可能要求更换微控制器。目前市场上存在各种规模的外部存储器器件,我们很容易通过增加存储器来适应代码规模的增加。有时这意味着以封装尺寸相同但容量更大的存储器替代现有的存储器,或者在总线上增加存储器。即使微控制器带有内部存储器,也可以通过增加外部串行EEPROM或闪存来满足系统对非易失性存储器的需求。
2、引导存储器
在较大的微控制器系统或基于处理器的系统中,设计工程师可以利用引导代码进行初始化。应用本身通常决定了是否需要引导代码,以及是否需要专门的引导存储器。例如,如果没有外部的寻址总线或串行引导接口,通常使用内部存储器,而不需要专门的引导器件。但在一些没有内部程序存储器的系统中,初始化是操作代码的一部分,因此所有代码都将驻留在同一个外部程序存储器中。某些微控制器既有内部存储器也有外部寻址总线,在这种情况下,引导代码将驻留在内部存储器中,而操作代码在外部存储器中。这很可能是最安全的方法,因为改变操作代码时不会出现意外地修改引导代码。在所有情况下,引导存储器都必须是非易失性存储器。
可以使用任何类型的存储器来满足嵌入式系统的要求,但终端应用和总成本要求通常是影响我们做出决策的主要因素。有时,把几个类型的存储器结合起来使用能更好地满足应用系统的要求。例如,一些PDA设计同时使用易失性存储器和非易失性存储器作为程序存储器和数据存储器。把永久的程序保存在非易失性ROM中,而把由用户下载的程序和数据存储在有电池支持的易失性DRAM中。不管选择哪种存储器类型,在确定将被用于最终应用系统的存储器之前,设计工程师必须仔细折中考虑各种设计因素。
❹ 分层次的存储器结构与多级存储体系是一样的吗
肯定不一样啊。多级存储是一种拓扑结构 ,为了缓解主存储器读写速度慢,不能满足CPU运行速度需要的矛盾,另一方面又要解决主存储器容量小,存不下更多的程序和数据的难题,当前计算机系统中,广泛采用了多级结构的存储器系统。它的应用是建立在程序运行的局部性原理之上的。
分级存储是将数据采取不同的存储方式分别存储在不同性能的存储设备上,减少非重要性数据在一级本地磁盘所占用的空间,还可加快整个系统的存储性能。分级存储是根据数据的重要性、访问频率、保留时间、容量、性能等指标,将数据采取不同的存储方式分别存储在不同性能的存储设备上,通过分级存储管理实现数据客体在存储设备之间的自动迁移。数据分级存储的工作原理是基于数据访问的局部性。通过将不经常访问的数据自动移到存储层次中较低的层次,释放出较高成本的存储空间给更频繁访问的数据,可以获得更好的性价比。这样,一方面可大大减少非重要性数据在一级本地磁盘所占用的空间,还可加快整个系统的存储性能
❺ 存储器的工作原理 [RAM,ROM,EEPROM存储器工作原理]
一.基本工作原理 基本工作原理
1、存储器构造 、 存储器就是用来存放数据的地方。它是利用电平的高低来存放数据的,也就是说,它存 放的实际上是电平的高、低,而不是我们所习惯认为的 1234 这样的数字,这样,我们的一 个谜团就解开了,计算机也没什么神秘的吗。
图1
图2 让我们看图 1。这是一个存储器的示意图:一个存储器就像一个个的小抽屉,一个小抽 屉里有八个小格子,每个小格子就是用来存放“电荷”的,电荷通过与它相连的电线传进来 或释放掉, 至于电荷在小格子里是怎样存的, 就不用我们操心了, 你可以把电线想象成水管, 小格子里的电荷就像是水,那就好理解了。存储器中的每个小抽屉就是一个放数据的地方, 我们称之为一个“单元” 。 有了这么一个构造,我们就可以开始存放数据了,想要放进一个数据 12,也就是
00001100, 我们只要把第二号和第三号小格子里存满电荷, 而其它小格子里的电荷给放掉就 行了(看图 2) 。可是问题出来了,看图 1,一个存储器有好多单元,线是并联的,在放入电 荷的时候, 会将电荷放入所有的单元中, 而释放电荷的时候, 会把每个单元中的电荷都放掉, 这样的话, 不管存储器有多少个单元, 都只能放同一个数, 这当然不是我们所希望的, 因此, 要在结构上稍作变化,看图 1,在每个单元上有个控制线,我想要把数据放进哪个单元,就 给一个信号这个单元的控制线,这个控制线就把开关打开,这样电荷就可以自由流动了,而 其它单元控制线上没有信号,所以开关不打开,不会受到影响,这样,只要控制不同单元的 控制线,就可以向各单元写入不同的数据了,同样,如果要某个单元中取数据,也只要打开 相应的控制开关就行了。 2、存储器译码 、 那么, 我们怎样来控制各个单元的控制线呢?这个还不简单, 把每个单元的控制线都引 到集成电路的外面不就行了吗?事情可没那么简单,一片 27512 存储器中有 65536 个单元, 把每根线都引出来, 这个集成电路就得有 6 万多个脚?不行, 怎么办?要想法减少线的数量。 我们有一种方法称这为译码,简单介绍一下:一根线可以代表 2 种状态,2 根线可以代表 4 种状态,3 根线可以代表几种,256 种状态又需要几根线代表?8 种,8 根线,所以 65536 种状态我们只需要 16 根线就可以代表了。 3、存储器的选片及总线的概念 、 至此,译码的问题解决了,让我们再来关注另外一个问题。送入每个单元的八根线是用 从什么地方来的呢?它就是从计算机上接过来的, 一般地, 这八根线除了接一个存储器之外, 还要接其它的器件
。这样问题就出来了,这八根线既然不是存储器和计算机之间专用的,如 果总是将某个单元接在这八根线上,就不好了,比如这个存储器单元中的数值是 0FFH 另一 个存储器的单元是 00H,那么这根线到底是处于高电平,基闭还是低电平?岂非要打架看谁历害 了?所以我们要让它们分离。办法当然很简单,当外面的线接到集成电路的引脚进来后,不 直接接到各单元去,中间再加一组开关就行了。平时我们让开关打开着,如果确实是要向这 个存储器中写入数据,或要从存储器中慧锋念读出数据,再让开关接通就行了。这组开关由三根引 线选择:读控制端、写控制端和片选端。要将数据写入片中,先选中该片, 然后发出写信号, 开关就合上了,并将传过来的数据(电荷)写入片中。如果要读,先选中该片,然后发出读 信号,开关合上,数据就被送出去了。读前困和写信号同时还接入到另一个存储器,但是由于片 选端不同, 所以虽有读或写信号,但没有片选信号, 所以另一个存储器不会“误会” 而开门, 造成冲突。 那么会不同时选中两片芯片呢?只要是设计好的系统就不会, 因为它是由计算控
制的,而不是我们人来控制的,如果真的出现同时出现选中两片的情况,那就是电路出了故 障了,这不在我们的讨论之列。 从上面的介绍中我们已经看到,用来传递数据的八根线并不是专用的,而是很多器件 大家共用的,所以我们称之为数据总线,总线英文名为 BUS,总即公交车道,谁者可以走。 而十六根地址线也是连在一起的,称之为地址总线。
二.存储器的种类及原理: 存储器的种类及原理: 及原理 1.RAM / ROM 存储器 1.
ROM 和 RAM 指的都是半导体存储器,ROM 是 Read Only Memory 的缩写,RAM 是 Random Access Memory 的缩写。ROM 在系统停止供电的时候仍然可以保持数据,而 RAM 通常都是在 掉电之后就丢失数据,典型的 RAM 就是计算机的内存。
2. RAM
随机存取存储器(RAM)是计算机存储器中最为人熟知的一种。之所以 RAM 被称为“随机 存储”,是因为您可以直接访问任一个存储单元,只要您知道该单元所在记忆行和记忆列的 地址即可。 RAM 有两大类: 1) 静态 RAM(Static RAM / SRAM),SRAM 速度非常快,是目前读写最快的存储设 备了,但是它也非常昂贵,所以只在要求很苛刻的地方使用,譬如 CPU 的一级缓冲,二级 缓冲。 2) 动态 RAM (Dynamic RAM / DRAM) DRAM 保留数据的时间很短, , 速度也比 SRAM 慢,不过它还是比任何的 ROM 都要快,但从价格上来说 DRAM 相比 SRAM 要便宜很多, 计算机内存就是 DRAM 的。 类似于微处理器, 存储器芯片也是一种由数以百万计的晶体管和电容器
构成的集成电路 (IC)。计算机存储器中最为常见的一种是动态随机存取存储器(DRAM),在 DRAM 中晶体 管和电容器合在一起就构成一个存储单元,代表一个数据位元。电容器保存信息位——0 或 1(有关位的信息,请参见位和字节)。晶体管起到了开关的作用,它能让内存芯片上的控 制线路读取电容上的数据,或改变其状态。 电容器就像一个能够储存电子的小桶。要在存储单元中写入 1,小桶内就充满电子。要 写入 0,小桶就被清空。电容器桶的问题在于它会泄漏。只需大约几毫秒的时间,一个充满 电子的小桶就会漏得一干二净。因此,为了确保动态存储器能正常工作,必须由 CPU 或是由 内存控制器对所有电容不断地进行充电,使它们在电子流失殆尽之前能保持 1 值。为此,内
存控制器会先行读取存储器中的数据, 然后再把数据写回去。 这种刷新操作每秒钟要自动进 行数千次如(图 3 所示)
图 3 动态 RAM 存储单元中的电容器就像是一个漏水的小桶。
它需要定时刷新,否则电子泄漏会使它变为 0 值。
动态 RAM 正是得名于这种刷新操作。 动态 RAM 需要不间断地进行刷新, 否则就会丢失它 所保存的数据。这一刷新动作的缺点就是费时,并且会降低内存速度。
存储单元由硅晶片蚀刻而成,位于由记忆列(位线) 和记忆行(字线) 组成的阵列之中。 位线和字线相交,就形成了存储单元的地址。
图 4 将位元排列在二维栅格中,就构成了内存。 在上图中,红色的存储单元代表 1 值,而白色的存储单元代表 0 值。 在演示动画片中,先选出一个记忆列,然后对记忆行进行充电以将数据写入指定的记忆列中。
DRAM 工作时会向选定的记忆列(CAS)发送电荷,以激活该记忆列上每个位元处的晶体 管。写入数据时,记忆行线路会使电容保持应有状态。读取数据时,由灵敏放大器测定电容 器中的电量水平。如果电量水平大于 50%,就读取 1 值;否则读取 0 值。计数器会跟踪刷新 序列,即记录下哪些行被访问过,以及访问的次序。完成全部工作所需的时间极短,需要以 纳秒(十亿分之一秒)计算。存储器芯片被列为 70 纳秒级的意思是,该芯片读取单个存储 单元并完成再充电总共需要 70 纳秒。 如果没有读写信息的策略作为支持, 存储单元本身是毫无价值的。 所以存储单元拥有一 整套由其他类型的专用电路构成的底层设施。这些电路具有下列功能: 判别记忆行和记忆列的地址(行选址和列选址) 记录刷新序列(计数器) 从存储单元中读取、恢复数据(灵敏放大器) 告知存储单元是否接受电荷(写保护) 内存控制器要执行其他一些任务, 包
括识别存储器的类型、 速度和容量, 以及检错等等。
静态 RAM 使用了截然不同的技术。 静态 RAM 使用某种触发器来储存每一位内存信息 (有 关触发器的详细信息,请查见布尔逻辑的应用) 。存储单元使用的触发器是由引线将 4-6 个 晶体管连接而成, 但无须刷新。 这使得静态 RAM 要比动态 RAM 快得多。 但由于构造比较复杂, 静态 RAM 单元要比动态 RAM 占据更多的芯片空间。 所以单个静态 RAM 芯片的存储量会小一些, 这也使得静态 RAM 的价格要贵得多。静态 RAM 速度快但价格贵,动态 RAM 要便宜一些,但速 度更慢。因此,静态 RAM 常用来组成 CPU 中的高速缓存,而动态 RAM 能组成容量更大的系统 内存空间。
3. ROM
ROM 也分为很多种: 1) 掩膜式 ROM 芯片生产厂家在制造芯片过程中把程序一并做在芯片内部,这就是二次光刻版图形(掩 膜)。存储阵列中的基本存储单元仅由一只 MOS 管构成,或缺省,凡有 MOS 管处表示存储 0, 反之为 1. 工厂在生产时,根据客户提供的内容,决定是否布下只 MOS 管. 用户在生产好后,
是不能改写的( 难道撬开芯片,加个 MOS 管上去?) 由于集成电路生产的特点, 要求一个批次的掩膜 ROM 必须达到一定的数量 (若十个晶圆) 才能生产,否则将极不经济。掩膜 ROM 既可用双极性工艺实现,也可以用 CMOS 工艺实现。 掩膜 ROM 的电路简单,集成度高,大批量生产时价格便宜。 2) 一次性可编程 ROM(PROM= ROM(PROM=Programmable ROM) ) 允许一次编程 存储阵列除了三极管之外,还有熔点较低的连线(熔断丝)串接在每只存储三极管的某 一电极上,例如发射极. 编程之前,存储信息全为 0,或全为 1,编程写入时,外加比工作 电压高的编程电压,根据需要使某些存储三极管通电,由于此时电流比正常工作电流大,于 是熔断丝熔断开路,一旦开路之后就无法恢复连通状态,所以只能编程一次。如果把开路的 三极管存储的信息当作 0,反之,存储的信息就为 1 3) 紫外线擦除可编程 ROM(EPROM= 紫外线擦除可编程 ROM(EPROM=Erasable PROM) ) 用紫外线擦除后编程,并可多次擦除多次编程 FAMOS 管与 MOS 管结构相似,它是在 N 型半导体基片上生长出两个高浓度的 P 型区,通 过欧姆接触分别引出漏极 D 和源极 S,在漏源之间的 SiO2 绝缘层中,包围了一多晶硅材料, 与四周无直接电气连接,称之为浮置栅极,在对其编程时,在漏源之间加上编程电压(高于 工作电压)时,会产生雪崩击穿现象,获得能量的电子会穿过 SiO2 注入到多晶硅中,编程 结束后, 在漏源之间相对感应出的正电荷导电沟道将会保持下来, 如果将漏源之间感应出正 电荷导电沟道的 MOS 管表示存
入 0,反之,浮置栅不带负电,即漏源之间无正电荷导电沟道 的 MOS 管表示存入 1 状态 在 EPROM 芯片的上方, 有一圆形石英窗, 从而允许紫外线穿过透明的圆形石英窗而照射 到半导体芯片上,将它放在紫外线光源下一般照射 10 分钟左右,EPROM 中的内容就被抹掉, 即所有浮置栅 MOS 管的漏源处于断开状态,然后,才能对它进行编程输入 出厂未编程前,每个基本存储单元都是信息 1, 编程就是将某些单元写入信息 0 EPROM 是采用浮栅技术生产的可编程存储器,它的存储单元多采用 N 沟道叠栅 MOS 管 (SIMOS) ,其结构及符号如图 12.2.1(a)所示。除控制栅外,还有一个无外引线的栅极,称 为浮栅。当浮栅上无电荷时,给控制栅(接在行选择线上)加上控制电压,MOS 管导通; 而当浮栅上带有负电荷时,则衬底表面感应的是正电荷,使得 MOS 管的开启电压变高,如 图 12.1.3(b)所示,如果给控制栅加上同样的控制电压,MOS 管仍处于截止状态。由此可见, SIMOS 管可以利用浮栅是否积累有负电荷来存储二值数据。
(a) 叠栅 MOS 管的结构及符号图
(b) 叠栅 MOS 管浮栅上积累电子与开启电压的关系
图 6 叠栅 MOS 管
在写入数据前,浮栅是不带电的,要使浮栅带负电荷,必须在 SIMOS 管的漏、栅极 加上足够高的电压(如 25V) ,使漏极及衬底之间的 PN 结反向击穿,产生大量的高能电子。 这些电子穿过很薄的氧化绝缘层堆积在浮栅上, 从而使浮栅带有负电荷。 当移去外加电压后, 浮栅上的电子没有放电回路,能够长期保存。当用紫外线或 X 射线照射时,浮栅上的电子形 成光电流而泄放, 从而恢复写入前的状态。 照射一般需要 15 至 20 分钟。 为了便于照射擦除, 芯片的封装外壳装有透明的石英盖板。EPROM 的擦除为一次全部擦除,数据写入需要通用或 专用的编程器。 ROM( EPROM) 4) 电擦除可编程 ROM(EEPROM = Electrically EPROM) 加电擦除,也可以多次擦除, 可以按字节编程。 在 EPROM 基本存储单元电路的浮置栅 MOS 管 T1 上面再生成一个浮置栅 MOS 管 T2, T2 将 浮置栅引出一个电极,使该电极接某一电压 VG2,若 VG2 为正电压,T1 浮置栅极与漏极之间 产生一个隧道效应,使电子注入 T1 浮置栅极,于是 T1 的漏源接通,便实现了对该位的写入 编程。 用加电方法,进行在线(无需拔下,直接在电路中)擦写(擦除和编程一次完成)有字
节擦写、 块擦写和整片擦写方法, 按字节为单位进行擦除和写入, 擦除和写入是同一种操作, 即都是写入,只不过擦除是固定写“1”而已,在擦除时,输入的数据是 TTL 高电平。 EEPROM 在进行字节改写之前自动对所要写入的字节单元进行
擦除, 只需要像写普通 CPU RAM 一样写其中某一字节, 但一定要等到 5ms 之后, CPU 才能接着对 EEPROM 进行下一次写入 操作,因而,以字节为单元写入是常用的一种简便方式。 写入操作时,首先把待写入数据写入到页缓冲器中,然后,在内部定时电路的控制下把 页缓冲器中的所有数据写入到 EEPROM 中所指定的存储单元,显然,相对字节写入方式,第 二种方式的效率高,写入速度快。 EEPROM 也是采用浮栅技术生产的可编程存储器,构成存储单元的 MOS 管的结构如图 12.2.2 所示。它与叠栅 MOS 管的不同之处在于浮栅延长区与漏区之间的交叠处有一个厚度 约为 80 埃的薄绝缘层,当漏极接地,控制栅加上足够高的电压时,交叠区将产生一个很强 的电场, 在强电场的作用下, 电子通过绝缘层到达浮栅, 使浮栅带负电荷。 这一现象称为“隧 道效应”,因此,该 MOS 管也称为隧道 MOS 管。相反,当控制栅接地漏极加一正电压,则产 生与上述相反的过程,即浮栅放电。与 SIMOS 管相比,隧道 MOS 管也是利用浮栅是否积累 有负电荷来存储二值数据的, 不同的是隧道 MOS 管是利用电擦除的, 并且擦除的速度要快得 多。 EEPROM 电擦除的过程就是改写过程,它是以字为单位进行的。EEPROM 具有 ROM 的非易 失性, 又具备类似 RAM 的功能, 可以随时改写 (可重复擦写 1 万次以上) 目前, 。 大多数 EEPROM 芯片内部都备有升压电路。因此,只需提供单电源供电,便可进行读、擦除/写操作,为数 字系统的设计和在线调试提供了极大的方便。
图 7 隧道 MOS 管剖面结构示意图
图 8 快闪存储器存储单元 MOS 管剖面结构示意图
5) Flash 闪存 快速擦写,但只能按块编程 快闪存储器存储单元的 MOS 管结构与 SIMOS 管类似, 如图 12.2.3 所示。 但有两点不同, 一是快闪存储器存储单元 MOS 管的源极 N+区大于漏极 N+区, SIMOS 管的源极 N+区和漏极 而 N+区是对称的;二是浮栅到 P 型衬底间的氧化绝缘层比 SIMOS 管的更薄。这样,可以通过 在源极上加一正电压,使浮栅放电,从而擦除写入的数据。由于快闪存储器中存储单元 MOS 管的源极是连接在一起的,所以不能象 E2PROM 那样按字擦除,而是类似 EPROM 那样整片擦 除或分块擦除。整片擦除只需要几秒钟,不像 EPROM 那样需要照射 15 到 20 分钟。快闪存储 器中数据的擦除和写入是分开进行的, 数据写入方式与 EPROM 相同, 需输入一个较高的电压, 因此要为芯片提供两组电源。一个字的写入时间约为 200 微秒,一般可以擦除/写入 100 次 以上。 新型的 FLASH,例如 320C3B 等,在常规存储区域后面还有 128Bit 的特殊加密,其中前 64Bit(8 字节)是唯一
器件码(64BitUniqueDeviceIdentifier),每一片 Flash 在出厂时 已经带有,并且同一种 Flash 型号不会有相同的编码,哪怕这个字库是全新空白的字库。后 来 64Bit 为用户可编程 OTP 单元 (64BitUserProgrammableOTPCells) ,可以由用户自用设定, 单只能写入,不能擦除。
❻ 数据存储的三种方式
数据存储的三种方式包括内存存储器、外存储器和高速缓存存储器。
双字宽存储器是指存储闹亩器的数据线宽携和度为两个字(word)宽度,即可以同时传输两个字辩弯盯节的数据。这种存储器通常用于需要高速访问和传输大量数据的应用中,比如视频和图像处理等领域。
❼ 传统大数据存储的架构有哪些各有什么特点
数据时代,移动互联、社交网络、数据分析、云服务等应用的迅速普及,对数据中心提出革命性的需求,存储基础架构已经成为IT核心之一。政府、军队军工、科研院所、航空航天、大型商业连锁、医疗、金融、新媒体、广电等各个领域新兴应用层出不穷。数据的价值日益凸显,数据已经成为不可或缺的资产。作为数据载体和驱动力量,存储系统成为大数据基础架构中最为关键的核心。
传统的数据中心无论是在性能、效率,还是在投资收益、安全,已经远远不能满足新兴应用的需求,数据中心业务急需新型大数据处理中心来支撑。除了传统的高可靠、高冗余、绿色节能之外,新型的大数据中心还需具备虚拟化、模块化、弹性扩展、自动化等一系列特征,才能满足具备大数据特征的应用需求。这些史无前例的需求,让存储系统的架构和功能都发生了前所未有的变化。
基于大数据应用需求,“应用定义存储”概念被提出。存储系统作为数据中心最核心的数据基础,不再仅是传统分散的、单一的底层设备。除了要具备高性能、高安全、高可靠等特征之外,还要有虚拟化、并行分布、自动分层、弹性扩展、异构资源整合、全局缓存加速等多方面的特点,才能满足具备大数据特征的业务应用需求。
尤其在云安防概念被热炒的时代,随着高清技术的普及,720P、1080P随处可见,智能和高清的双向需求、动辄500W、800W甚至上千万更高分辨率的摄像机面市,大数据对存储设备的容量、读写性能、可靠性、扩展性等都提出了更高的要求,需要充分考虑功能集成度、数据安全性、数据稳定性,系统可扩展性、性能及成本各方面因素。
目前市场上的存储架构如下:
(1)基于嵌入式架构的存储系统
节点NVR架构主要面向小型高清监控系统,高清前端数量一般在几十路以内。系统建设中没有大型的存储监控中心机房,存储容量相对较小,用户体验度、系统功能集成度要求较高。在市场应用层面,超市、店铺、小型企业、政法行业中基本管理单元等应用较为广泛。
(2)基于X86架构的存储系统
平台SAN架构主要面向中大型高清监控系统,前端路数成百上千甚至上万。一般多采用IPSAN或FCSAN搭建高清视频存储系统。作为监控平台的重要组成部分,前端监控数据通过录像存储管理模块存储到SAN中。
此种架构接入高清前端路数相对节点NVR有了较高提升,具备快捷便利的可扩展性,技术成熟。对于IPSAN而言,虽然在ISCSI环节数据并发读写传输速率有所消耗,但其凭借扩展性良好、硬件平台通用、海量数据可充分共享等优点,仍然得到很多客户的青睐。FCSAN在行业用户、封闭存储系统中应用较多,比如县级或地级市高清监控项目,大数据量的并发读写对千兆网络交换提出了较大的挑战,但应用FCSAN构建相对独立的存储子系统,可以有效解决上述问题。
面对视频监控系统大文件、随机读写的特点,平台SAN架构系统不同存储单元之间的数据共享冗余方面还有待提高;从高性能服务器转发视频数据到存储空间的策略,从系统架构而言也增加了隐患故障点、ISCSI带宽瓶颈导致无法充分利用硬件数据并发性能、接入前端数据较少。上述问题催生了平台NVR架构解决方案。
该方案在系统架构上省去了存储服务器,消除了上文提到的性能瓶颈和单点故障隐患。大幅度提高存储系统的写入和检索速度;同时也彻底消除了传统文件系统由于供电和网络的不稳定带来的文件系统损坏等问题。
平台NVR中存储的数据可同时供多个客户端随时查询,点播,当用户需要查看多个已保存的视频监控数据时,可通过授权的视频监控客户端直接查询并点播相应位置的视频监控数据进行历史图像的查看。由于数据管理服务器具有监控系统所有监控点的录像文件的索引,因此通过平台CMS授权,视频监控客户端可以查询并点播整个监控系统上所有监控点的数据,这个过程对用户而言也是透明的。
(3)基于云技术的存储方案
当前,安防行业可谓“云”山“物”罩。随着视频监控的高清化和网络化,存储和管理的视频数据量已有海量之势,云存储技术是突破IP高清监控存储瓶颈的重要手段。云存储作为一种服务,在未来安防监控行业有着可观的应用前景。
与传统存储设备不同,云存储不仅是一个硬件,而是一个由网络设备、存储设备、服务器、软件、接入网络、用户访问接口以及客户端程序等多个部分构成的复杂系统。该系统以存储设备为核心,通过应用层软件对外提供数据存储和业务服务。
一般分为存储层、基础管理层、应用接口层以及访问层。存储层是云存储系统的基础,由存储设备(满足FC协议、iSCSI协议、NAS协议等)构成。基础管理层是云存储系统的核心,其担负着存储设备间协同工作,数据加密,分发以及容灾备份等工作。应用接口层是系统中根据用户需求来开发的部分,根据不同的业务类型,可以开发出不同的应用服务接口。访问层指授权用户通过应用接口来登录、享受云服务。其主要优势在于:硬件冗余、节能环保、系统升级不会影响存储服务、海量并行扩容、强大的负载均衡功能、统一管理、统一向外提供服务,管理效率高,云存储系统从系统架构、文件结构、高速缓存等方面入手,针对监控应用进行了优化设计。数据传输可采用流方式,底层采用突破传统文件系统限制的流媒体数据结构,大幅提高了系统性能。
高清监控存储是一种大码流多并发写为主的存储应用,对性能、并发性和稳定性等方面有很高的要求。该存储解决方案采用独特的大缓存顺序化算法,把多路随机并发访问变为顺序访问,解决了硬盘磁头因频繁寻道而导致的性能迅速下降和硬盘寿命缩短的问题。
针对系统中会产生PB级海量监控数据,存储设备的数量达数十台上百台,因此管理方式的科学高效显得十分重要。云存储可提供基于集群管理技术的多设备集中管理工具,具有设备集中监控、集群管理、系统软硬件运行状态的监控、主动报警,图像化系统检测等功能。在海量视频存储检索应用中,检索性能尤为重要。传统文件系统中,文件检索采用的是“目录-》子目录-》文件-》定位”的检索步骤,在海量数据的高清视频监控,目录和文件数量十分可观,这种检索模式的效率就会大打折扣。采用序号文件定位可以有效解决该问题。
云存储可以提供非常高的的系统冗余和安全性。当在线存储系统出现故障后,热备机可以立即接替服务,当故障恢复时,服务和数据回迁;若故障机数据需要调用,可以将故障机的磁盘插入到冷备机中,实现所有数据的立即可用。
对于高清监控系统,随着监控前端的增加和存储时间的延长,扩展能力十分重要。市场中已有友商可提供单纯针对容量的扩展柜扩展模式和性能容量同步线性扩展的堆叠扩展模式。
云存储系统除上述优点之外,在平台对接整合、业务流程梳理、视频数据智能分析深度挖掘及成本方面都将面临挑战。承建大型系统、构建云存储的商业模式也亟待创新。受限于宽带网络、web2.0技术、应用存储技术、文件系统、P2P、数据压缩、CDN技术、虚拟化技术等的发展,未来云存储还有很长的路要走。
❽ 云存储架构分哪些层次,各自实现了什么功能_云存储架构包含哪些内容
(1)存储层
云存储系统对外提供多种不同的存储服务,各种服务的数据统一存放在云存储系统中,形成一个海量数据池。从大多数网络服务后台数据组织方式来看,传统基于单服务器的数据组织难以满足广域网多用户条件下的吞吐性能和存储容量需求;基于P2P架构的数据组织需要庞大的节点数量和复杂编码算法保证数据可靠性。相比而言,基于多存储服务器的数据组织方法能够更好满足在线存储服务的应用需求,在用户规模较大时,构建分布式数据中心能够为不同地理区域的用户提供更好的服务质量。
云存储的存储层将不同类型的存储设备互连起来,实现海量数据的统一管理,同时实现对存储设备的集中管理、状态监控以及容量的动态扩展,实质是一种面向服务的分布式存储系统。
(2)基础管理层
云存储系统架构中的基础管理层为上层提供不同服务间公共管理的统一视图。通过设计统一的用户管理、安全管理、副本管理及策略管理等公共数据管理功能,将底层存储与上层应用无缝衔接起来,实现多存储设备之间的协悔早同工作,以更好的性能对外提供多种服务。
(3)应用接口层
应用接口层是云存储平台中可以灵活扩展的、直接面向用户的部分。根据用户需求,可以开发出不同的应用接口,提供相应的服务。比如数据存储服务、空间租赁服务、公共资源服务、多用户数据共享服务、数据备份服务等。
(4)访问层
通过访问层,任何一个授权用户都可以在任何地方,使用一台联网的终端设备,按照标准的公用应用接口来登录云存储平台,享受云存储服务。
2云存储技术的优势
作为新兴的存储技术,与传统的购买存储设备和部署存储软件相比,云存储方式存在以下优点:
(1)成本低、见效快
传统的购买存储设备或软件定制方式下,企业根据信息化管理的需求,一次性投入大量资金购置硬件设备首饥、搭建平台。软件开发则经过漫长的可行性分析、需求调研、软件设计、编码、测试这一过程。往往在软件开发完成以后,业务需求发生变化,不得不对软件进行返工,不仅影响质量,提高成本,更是延误了企业信息化进程,同时造成了企业之间的低水平重复投资以及企业内部周期性、高成本的技术升级。在云存储方式下,企业除了配置必要的终端设备接收存储服务外,不需要投入额外的资金来搭建平台。企业只需按用户数分期租用服务,规避了一次性投资的风险,降低了使用成本,而且对于选定的服务,可以立即投入使用,既方便又快捷。
(2)易者前返于管理
传统方式下,企业需要配备专业的IT人员进行系统的维护,由此带来技术和资金成本。云存储模式下,维护工作以及系统的更新升级都由云存储服务提供商完成,企业能够以最低的成本享受到最新最专业的服务。
(3)方式灵活
传统的购买和定制模式下,一旦完成资金的一次性投入,系统无法在后续使用中动态调整。随着设备的更新换代,落后的硬件平台难以处置;随着业务需求的不断变化,软件需要不断地更新升级甚至重构来与之相适应,导致维护成本高昂,很容易发展到不可控的程度。而云存储方式一般按照客户数、使用时间、服务项目进行收费。企业可以根据业务需求变化、人员增减、资金承受能力,随时调整其租用服务方式,真正做到“按需使用”。
3云存储技术趋势
随着宽带网络的发展,集群技术、网格技术和分布式文件系统的拓展,CDN内容分发、P2P、数据压缩技术的广泛运用,以及存储虚拟化技术的完善,云存储在技术上已经趋于成熟,以“用户创造内容”和“分享”为精神的Web2.0推动了全网域用户对在线服务的认知
❾ iSCSI存储春天到了|手机存储
iSCSI(互联网小型计算机系统接口)是IP技术和网络快速发展的产物,是FC(光纤通道)最有力的竞争对手。iSCSI结合了业内SCSI和TCP/IP两个最通用的协议,为其实施和使用带吵举冲来了极大的便利,也大大增加了存储设备的资源利用。目前,存储厂商纷纷推出iSCSI存储设备。随着千兆以太网的成熟以及万兆以太网络的开发,iSCSI的性能不断提高,成本逐渐降低,其高性价比、通用性、无地理限制等优势获得越来越多用户的认可,必将开创网络存储的新局面。
以前,业界人士总认为,iSCSI是生不逢时。在SAN(存储区域网)架构已成为网络存储的主流的时候,iSCSI却因为速度的原因,在与光纤通道的竞争中败下阵来,只得跻身在中小企业市场。
不过风水轮流转,该到了iSCSI大展拳脚的时候了。从2006年开始,iSCSI发货量迅速增加,应用的领域也不仅仅是中小型企业市场。市场分析机构均认为,iSCSI的春天到了。
初生牛犊不怕虎
iSCSI,即internet SCSI,是IETF制订的一项标准,用于将SCSI(互联网小型计算机系统接口)数据块映射成以太网数据包。从根本上说,iSCSI协议是一种跨过IP网络来传输潜伏时间短的SCSI数据块的方法。
iSCSI使我们可以用已经熟悉和每天都在使用的以太网来构建IP存储区域网(SAN)。通过这种方法,iSCSI克服了直接连接存储的局限性,使我们可以跨不同服务器共享存储资源,并可在不停机状态下扩充存储容量。
iSCSI是一种网络通信协议,该技术能以以太网络取代现有的光纤信道,用做连结服务器及计算机系统的互联网通信协议(IP)。它最大的好处是能提供快速的网络环境,虽然速度目前还无法企及光纤网络,但以节省企业30% ~40%的成本而言,效益比非常高。
从目前来看, iSCSI SAN的优势主要有几个:一是高可用性,在服务器和存储资源之间建立起多条通道,即使一条线路断开,仍能保持系统升歼连接;二是高可扩展性,SAN采用交换机式的结构,IT管理人员不必中止应用即可完成存储容量的扩充;三是最大程度地保护存储资源投入;四是SAN能够跨平台共享硬盘和磁带设备;五是采用我们熟悉的以太网技术。
不过,在前几年,iSCSI的应用并没有像人们预期的那样增长,相反,应用推广并不理想。虽然iSCSI存储设备在几年前就相继问世,包括了EMC、HP、HDS等存储设备大厂也推出结合iSCSI/SAN/NAS的双信道协议产品,借iSCSI低成本优势,市场可望显着成长。但是不论从市场报告或者厂商观察都显示,由于SAN设备成本持续下滑、iSCSI的频宽有限、以及前者周边组件的驱动程序尚未完全到位等因素,相较于FC,iSCSI市场的成长有限。
不过可以肯定,iSCSI必然成为光纤通道(FC)的主要竞争对手,成为SAN存储区域网的主要应用技术。同时由于iSCSI内置的支持路由,可以让iSCSIinitiator访问Internet上任何一台存储设备,使得存储共享的概念无限扩大,存储连接的距离无限扩展。这一技术对于一边要面对信息高速增长,另一边却身处“数据孤岛”的众多中小企业无疑具有巨大的吸引力。
时来运转
不过,从2006年年底开始,iSCSI就时来运转。先来看看几组市场研究公司的分析与数据。
市场研究公司ESG的数据说,目前已经有超过 2万用户采用了 iSCSI。ESG统计了500名美国的IT经理,发现其中 17%企业正在企业生产环境应用 iSCSI ,另外20%计划采用这一技术。
按照IDC的统计,今天 iSCSI在外部磁盘存储领域所占的市场份额仅为3%。但是,目前iSCSI市场在以每年近3倍的速度增长,而到2010年,其市场份额将超过20%。IDC公司根据公司的全球磁盘存储收入的报告,预测在2005年到2010年之间,iSCSI市场的收入将提高75.8%,估计到了2010年,iSCSI收入将超过51亿美元,比2005年增加了30.5亿美元。
按照分析师的观点,iSCSI 技术迅速增长并进入网络存储的主流地位,源于其低成本和简单管理特性。它能以GB的速度传输存储数据,但是答改成本却比FC低很多。因为运行在万兆以太网上,它在服务器和光纤交换机上不需要适配器。另外,在部署方面,iSCSI不需要IT管理员需要特别的知识和专业技能。
低成本与易管理是驱动用户采用iSCSI的众多因素中的关键,不仅针对中小企业,而且针对大型企业。员工超过2万(含2万)的大型企业中接近20%已经部署了iSCSI。ESG说,市场发售的iSCSI存储产品开始增加,专门从事iSCSI领域的公司不断涌现,如美国Sanrad 公司、LeftHand Networks 公司、 Intransa 公司和EqualLogic公司。
一般认为,iSCSI产品大量上市的最主要驱动力在于两大软硬件厂商微软和英特尔都推出了支持iSCSI的产品。以微软为例,2004年年底Windows Storage Server 2003加入了对iSCSI技术的支持,2005年4月微软又宣布Microsoft Exchange Server 2003支持iSCSI。以iSCSI的市场被定位在中小型企业以及部门级产品而言,这些市场原本即是微软NT平台大宗使用者,iSCSI被微软无缝融入,使用户可以不必为新系统的应用和管理付出过多代价。
英特尔于2007年2月5日面向iSCSI推出了配备专用处理器的千兆以太网用适配器“PRO/1000 T IP Storage Adapter”,能够实现iSCSI 包卸载,并通过基于Intel Xscale 微架构的板上处理器获得较低的CPU 利用率,并已开始批量生产。
哪种方案最适合
到现在,不少企业已经将许多应用建立在Internet的架构之上,于是,SAN也将向基于IP网络方向发展。采用iSCSI技术组成的IP SAN可以提供和传统FC SAN相媲美的存储解决方案,而且普通服务器或PC只需要具备网卡,即可共享和使用大容量的存储空间。
假如你是一个用户,而你的公司近期打算部署一套备份存储系统,这时你有了更多的选择,可以购买数据吞吐量达到2 Gb/s左右的FC-SAN系统,也可以选择发展迅速的iSCSI SAN,那么如何选择最适合自己企业的技术方案呢?
不过,一般来说,企业在面临iSCSI SAN存储解决方案时,多半喜欢将其与传统的方案FC SAN及NAS与其做一番比较。专家对这三种方案做了一个比较,如下表所示。
无论未来用户采用光纤通道、iSCSI或者两者结合,所有存储系统客户的共同需求都是相同的,即降低成本,使得额外负担最小化,管理方式流水化以及存储系统管理的简单化。用户应该根据自己的应用需要,在考虑性能、成本、可扩展性、维护成本等方面基础上,选择合适自己的方案。
主要考虑的因素包括以下几个方面:
第一,适应性。
随着网络连接技术和信息化应用的不断发展,存储连接技术也在快速发展,在某些技术领域也做到了相互融合和借鉴。IP网络发展到今天已经十分成熟和普及,规模已经遍及全球,对于需要远程互联存储设备来说这是最好的现成资源。iSCSI协议就是在这种背景下发展起来的,iSCSI协议很好地结合了IP传输技术和SCSI传输技术的优点。从这一点看,iSCSI有着更好的发展适应性。
不过,目前存储的主要连接协议还是FC(光纤通道)协议,它是应用最广的存储连接技术。而iSCSI技术的发展前景却不容置疑。
第二,性能。
目前来看,iSCSI和FC技术都已经成熟,其发展目标主要是提升传输速度。
目前来看,FC的主流速度为2Gb/s,也有一些企业推出了4Gb/s的产品,而10Gb/s的标准也一定会推出。FC一定会向更高的传输速率迈进。
因为iSCSI协议是在TCP/IP协议之上运行SCSI协议,所以其底层的协议层都是利用现有以太网的。在硬件上兼容现在的网卡、网线、以太网交换机等设备。目前以太网的主流速度是千兆,现在已有一些用户采用万兆以太网。不过,目前其速度还无法超过FC协议。但由于iSCSI协议借鉴了SCSI协议适合大数据量传输的优势,所以在千兆以太网上的性能表现还不错。未来iSCSI超过FC是毫无悬念的。
第三,成本。
iSCSI的最大好处是能提供快速的网络环境,虽然目前其性能和带宽与光纤网络还有一些差距,但能节省企业30%~40%的成本。ISCSI成本优势的主要体现包括以下几个方面:
一是硬件购置成本低。构建iSCSI存储网络,除了存储设备外,交换机、线缆、接口卡都是标准的以太网配件,价格相对来说比较低廉。同时,iSCSI还可以在现有的网络上直接安装,并不需要更改企业的网络体系,这样可以最大程度地节约投入。
二是维护成本低。对iSCSI存储网络的管理,实际上就是对以太网设备的管理,只需花费少量的资金去培训iSCSI存储网络管理员。当iSCSI存储网络出现故障时,问题定位及解决也会因为以太网的普及而变得容易。
主流企业陆续推出产品
热衷iSCSI的存储企业既有存储领域的龙头老大,也有初出茅庐的新秀。推出产品涉及iSCSI控制卡、iSCSI交换机/网关、iSCSI存储服务器、iSCSI存储阵列等。
1.iSCSI存储系统
据 IDC的数据显示, NetApp 和 EMC在iSCSI市场上分别占据着第一和第二的位置。
IDC的数据显示,NAS存储领域的领导厂商NetApp,在2006年销售的iSCSI系统占到了市场30%份额。根据IDC 的数据,NetApp在FC网络存储 (FC SAN)和iSCSI SAN市场,无论在交付容量及营业收入方面,均处于全球领导者的地位。NetApp 是第一个提供 iSCSI 协议支持的存储系统厂商,已经在其存储系统中实现了NAS、iSCSI和FC连接的共存。在今年的早些时候,NetApp还推出了针对SMB市场的iSCSI-NAS系统――StoreVault S500。S500是一款2U系统,支持可达12个SATA硬盘驱动器,最大容量6TB,外部接口支持NAS和iSCSI。NetApp将S500定位在那些需要500GB到3TB存储、每年在存储上的花费少于2万美元并且没有专门的存储管理员的公司。S500包括NetApp用于其他磁盘系统的Data Ontap 7G操作系统,支持250个快照和RAID-DP。RAID-DP是NetApp版本的RAID 6,可以让系统承受两个驱动器故障。
之后,3月NetApp在推出满足中端市场需求的FAS3070 和 V3070之后,又推出了NetApp FAS3040 和 NetApp V3040系列中端SAN产品。这些产品对于那些不愿意将其数据中心与多个设备集群以处理不同的存储协议的用户具有一定的吸引力。通过一个FAS系统进行不同的处理,既可以降低成本,又能节省数据中心的空间和能量。最新产品采用了NetApp的多功能一体的架构,支持FC和iSCSI,对于存储由数据密集型的Oracle、SAP 和Microsoft Exchange产品创建的数据来说,是一个理想的选择。
EMC公司为其中端Clariion阵列和高端DMX存储系统增加了iSCSI支持能力。最新产品CLARiiON CX3-10将4Gb/s网络存储系统推向更低的起点,其容量可以扩展至30TB。在新系统中,同一阵列兼有光纤通道(FC)和iSCSI连接能力,实施更加灵活,可帮助用户整合存储系统。入门级用户可以用iSCSI来满足Microsoft Exchange等应用的需求,用光纤通道满足Oracle产品或Microsoft SQL Server数据仓库等高带宽应用的需求。
Hitachi则改进了其中端存储系统的性能。Hitachi的可适应存储扩展模块Adaptable Molar Storage――AMS1000,由于采用了新的多处理器技术,从而使性能提高20%。系统提供多种协议,支持iSCSI、NAS和FC SAN,用户可以混合和配比FC和SATA drives,以及RAID不同标准。
惠普向喜欢简单化的用户发布了AIO系列。AIO的全称是All in One即一体化,指的是该系列通过块级iSCSI目标、启动器支持和文件级连接(这一切都借助微软Windows存储服务器)来提供SAN和NAS功能。该设备基于Proliant DL 100 G2,配备有4个250GB SATA驱动器和1个双端口以太网接口。新的HP StorageWorks All-in-One (AiO)存储系统实现了简单的、以应用为中心的存储管理、可靠的数据保护及适中的价格。即使是在存储领域毫无经验的中小企业,也可以利用这套系统在灵活的网络存储环境里存储、共享、管理、备份和保护应用及文件数据。这款产品统一了NAS与SAN,实现了数据保护,容量从1TB可以扩展到39TB。在数据恢复方面,AiO每个卷最多可以做上百个快照,提升数据恢复的安全性。
2.iSCSI交换机
iSCSI交换机在系统中的作用跟网络中普通的交换机一样,只是起一个连接iSCSI存储服务器和iSCSI存储设备的作用。Sanrad声称,已经有超过600个用户使用其iSCSI技术。它最近推出的中端iSCSI交换机。Sanrad的 V-Switch 3400 是一款拥有3个iSCSI端口与4个FC端口的交换机。它提供热插拔电源,可以通过SNMP管理。SNMP是一个通用的图形化界面,它支持4PB存储容量,起价263美元。
以色列的一家公司SANRAD 也推出iSCSI交换机――SANRAD ISCSI V Switch 3000。该交换机能够通过以太网访问具有SCSI和光纤通道接口的存储设备,它配置于服务器等计算机和具有SCSI或光纤通道接口的存储设备之间。具有3个连接计算机的千兆位以太网端口,和4个连接存储设备的光纤通道接口(数据传输速度为2Gb/s)或Wide Ultra3 SCSI(数据传输速度为160Mb/s)端口。其特点是具有存储设备虚拟功能。
3. iSCSI控制卡
存储设备和主机都通过以太网线连接到以太网络交换机上,通过IP网络来实现SCSI协议的传输。主机与iSCSI设备之间有三种连接方式:第一,以太网卡+软件方式;第二,硬件TOE网卡实现方式;第三种是iSCSI HBA卡实现方式。
第三种方式使用iSCSI存储适配器来完成服务器中的iSCSI层和TCP/IP协议栈功能。这种方式使得服务器CPU无需考虑iSCSI以及网络配置,对服务器而言,iSCSI存储器适配器是一个HBA设备,与服务器采用何种操作系统无关。目前市场上也有相关的产品,如Adaptec 7211 iSCSI控制卡、Alacritech iSCSI HBA SES 1001、QLogic SANblade 4000系列iSCSI HBA卡等。