‘壹’ 亚马逊云科技的云存储,最应该知道的有这三点
传统存储在以各种方式对接公有云生态,公有云的云上服务类型也在不断完善,作为企业信息化负责人要做的是更多地了解公有云,然后,考虑如何充分利用公有云的优势。
本文通过介绍亚马逊云 科技 存储服务的三个关键点,带您认识云存储的现状。
正文:
乘着互联网产业的春风,云存储在过去近二十年走过了可遇不可求的发展历程。也让从90年代开始,就一直坐着冷板凳,负责数据归档的对象存储,一跃成为整个互联网数据的基石。
如今,绝大部分互联网上可访问的数据都靠对象存储来存,偶尔曝出的数据泄露事件也大多都跟对象存储有关,当然,问题不在于对象存储本身。
从2006年,亚马逊云 科技 的对象存储服务Amazon S3发布,到现在,算起来也有十六年的时间了,这也是亚马逊云 科技 推出的第一款云服务。
从市场表现来看,Amazon S3是非常成功的,前两年有人推测说,亚马逊云 科技 在存储方面的营收规模非常大,甚至被称作是全球最大的存储公司,Amazon S3无疑是功劳最大的一个。
有人说,许多亚马逊云 科技 用户使用的第一个产品就是Amazon S3对象存储,在所有亚马逊云 科技 的用户案例,在所有技术文档里,Amazon S3的出镜率都非常高。
云上原生存储Amazon S3的主线任务:不断降低成本
如果亚马逊云 科技 的用户没用过Amazon S3,就好比去包子铺吃饭没点包子,光顾烧烤店没吃烤串一样,令人费解。
Amazon S3的易用性高、可用性高,开发者很喜欢,Amazon S3几乎不丢数据的可靠性,稳定性也很高,运维管理人员很喜欢,Amazon S3在互联网应用场景被普遍应用。
如今,Amazon S3上存着超过100万亿个对象,每秒需要处理上千百万次请求。
Amazon S3一开始解决了可靠性和可用性以及安全方面的基本问题,性能也一直在提升,多年看下来,最大的工作重点就是不断降低成本。
亚马逊云 科技 大中华区产品部总经理 陈晓建介绍称,同样存储一份数据,如果2006年需要100块钱,而在2022年就只需要大概15块钱,16年间,Amazon S3的存储成本降低了大约7倍。
2021年12月,亚马逊云 科技 宣布在全球九大区域,将Amazon S3 Standard In Frequent Access和Amazon S3 One Zone In Frequent Access的价格降低了31%。
Amazon S3存储分了八个层级。
对于需要经常访问的数据,首选标准版的Amazon S3,它具有毫秒级的访问表现,而不太经常访问的数据就选Amazon S3 Standard-IA上,相较于前者能节省大概40%的费用。
而对于那些很少访问的数据,则可以选择放在Amazon S3 Glacier DeepArcihve上,它的成本非常低,大约1美刀1个TB,但代价是,想把数据拿回来就得多等等,大概需要12到48个小时。
有人觉得这等的时间也太长了,于是,亚马逊云 科技 又推出了Amazon S3 Glacier Flexible Retrieval,只需要等上几分钟到几小时。
就没有一种,既可以便宜,访问性能又高的存储吗?还真有。
这就是Amazon S3 Glacier Instant Retrieval,它是最新的一个存储层级,拿回数据的速度是毫秒级的,成本与Amazon S3 Glacier相当,适合每季度才访问一次、又需要毫秒级取回的海量数据。
另外,Amazon S3 One Zone-IA的成本也很低,顾名思义,数据只存在单个可用区上,而其他S3存储的数据都在多个可用区上存着好几分,相比之下,理论上丢数据的风险高了些。
最后,出于合规的要求,用户有些数据不能上云,亚马逊云 科技 可以提供Amazon Outposts,把云的硬件放到了用户的数据中心里。使用Amazon S3 on Outposts,就像在云上使用S3一样。
总的来说,Amazon S3的存储层级还是挺多的,但问题是,这给选型和管理也带来了负担。
为此,亚马逊云 科技 推出了Amazon S3 Intelligent-Tiering(智能分层),它会根据对象被访问的次数在多个存储层级间进行自动化迁移。
如果不能确定要选什么或者存储需求会变,那就选它,它不仅能解除选择困难症,还能避免用户自行管理数据分层的麻烦。
一家在东南亚和北美市场非常有影响力的互联网公司,在亚马逊云 科技 上存放了大约几十PB的数据,原本主要使用的是Amazon S3 Standard—IA,在使用Amazon S3智能分层后,没有进行任何额外操作,就将存储成本降低了62%。
亚马逊云 科技 最早在2018年就推出了Amazon S3智能分层功能,如今,Amazon S3智能分层已经涵盖了Amazon S3家族的几乎所有存储类别,最多可节省68%的成本。
不仅如此,如今数据分层还拓展到文件存储Amazon EFS,Amazon EFS提供四种文件存储等级,数据分层能节省高达72%的存储成本。
打通云应用与传统应用的隔阂:靠多种文件存储
如果说,对象存储是云存储的标配的话,那文件存储就是云存储连接本地存储的桥梁。
如今常见的应用分为两类。
一类是云原生的现代化应用,也就是在云上开发的、充分利用云架构优势的应用,比如电商、 游戏 、社交媒体等平台。对应需要的存储,大部分是对象存储Amazon S3来满足,少部分需要文件存储Amazon EFS。
另一类是传统企业应用,它诞生在公有云之前,常见的有高性能计算、EDA、视频渲染等场景,通常由本地的文件存储系统,比如NAS来支撑的,为提升安全性和可靠性,通常都带有快照、镜像、远程复制等功能特性。
这类工作负载并没有根据云架构的特点来设计,如果强行上云,不仅需要调整应用本身,而且还可能出现兼容性的问题,为了避免此类问题,亚马逊云 科技 推出了FSx文件存储家族。
从2018年开始,陆续推出了面向Windows环境的Amazon FSx for Windows,面向高性能计算场景的Amazon FSx for Lustre,面向大数据分析场景推出了Amazon FSx for OpenZFS。
金风慧能采用了亚马逊云 科技 构建HPC高性能计算系统,其中使用了Amazon FSx for Lustre共享存储系统,不仅使气象预测系统性能提升了10%,气象计算时间缩短了1/3,还将成本降低了70%,运维复杂度也大大降低。
此外,还与知名存储厂商NetApp合作推出了Amazon FSx for NetApp ONTAP,把NetApp的经典NAS文件存储系统NetApp ONTAP放到了公有云上。
NetApp在2015年就提出了Data Fabric的概念,大意就是想要实现数据在云上和云下的自由流动,是比较早积极拥抱混合云的存储厂商之一。
与一些存储厂商的云上托管服务不同,Amazon FSx for NetApp ONTAP没有删减任何功能,它是云上唯一完整且全托管的NetApp ONTAP文件存储系统,能够无缝地跟企业本地的ONTAP系统对接,所以,用户的IT系统不需要做任何改动,就能使用云上服务。
2019年,NetApp与联想成立合资公司——联想凌拓,联想凌拓在中国区提供相关服务,联想凌拓产品管理与营销高级总监林佑声表示,从发布到现在,Amazon FSx for NetApp ONTAP得到了非常多客户的认可,包括金融、医疗、石油以及高 科技 行业客户。
嘉里物流原本是本地存储NetApp ONTAP的用户,随着业务全球化发展,在数据扩容以及数据共享方面碰到的问题越来越多,通过使用亚马逊云 科技 提供的Amazon FSx for NetApp ONTAP,将数据从本地迁到云上,解决了这些问题。
上云之后,不仅可以使用原来NetApp ONTAP自带的快照和备份等功能,同时,还可以使用亚马逊云 科技 遍布全球的数据中心,实现跨区域的灾备。
补足数据保护方面的短板:Amazon Backup
一直以来,云存储被诟病的点还在于缺少数据灾备功能,在如何维持业务连续性方面有一些争议,而亚马逊云 科技 正在试着消除这一顾虑,这就是Amazon Backup。
由于缺少与业务价值的强关联性,数据保护经常容易被忽视,同时,由于数据保护系统本身很复杂,合规的要求还特别多,实践起来也特别麻烦,所以,数据保护的实践相对落后。
可能也是基于这样的考虑,亚马逊云 科技 的数据保护服务Amazon Backup才特别喜欢强调“一站式”“操作简单”的特点,让用户知道,数据保护也没有那么麻烦。
于是我们看到,Amazon Backup能覆盖旗下的几乎所有存储产品,包括块存储(Amazon EBS)、对象存储、文件存储、数据库,以及计算和存储网关等相关产品。
Amazon Backup的操作比较简单,通过图形的界面即可完成大部分操作,用户还可以通过预设的策略进行自动化的备份,降低手动备份带来的问题。
安全合规的问题让许多用户头疼,Amazon Backup深度集成了亚马逊云 科技 自带的KMS数据加密服务,整个备份操作权限、数据访问权限都可以用IAM进行细颗粒度监控,满足个人信息安全规范、信息安全等级保护等方面的合规要求。
Amazon Backup避免让数据保护带来太多的成本负担,因此也用上了智能分层技术,用户通过冷热分层策略可以有效降低约75%的成本。
澳大利亚石油天然气的供应商Santos要对Amazon EBS块存储做备份,原本都是用手动备份的方案,但随着业务量的发展,备份的出错率越来越高,成功率越来越低。
而在用了Amazon Backup后,平均备份任务用时和运营成本均有大幅降低,备份成功率到了100%,而且还完全做到企业数据合规。
结束语
确实如陈晓建所言,亚马逊云 科技 存储服务已经成为IT行业的“水”和“电”,让各行各业的业务都能从存储服务中获得价值。
亚马逊云 科技 的存储服务类型和存储的相关实践都非常有代表性,而且,很多做法已经成了上云的参考实践,企业用户应该多少了解亚马逊云 科技 的云存储,特别是有上云打算的企业。
当然,上云带来的便捷和灵活,稳定性和安全性,以及对运维的解放都很吸引人。
还有顾虑?据我个人了解,亚马逊云 科技 非常在意企业在云上的成功和成本节省,不仅会帮企业不断优化。除此之外,市场上有一些专门的服务,帮助企业做规划实施,让你充分利用云的优势。
‘贰’ 想问下亚马逊云科技有哪些功能是永久免费的
很多啊,比如Amazon DynamoDB数据库,提供快速灵活的NoSQL数据库服务,它可以在任何规模下实现个位数毫秒级的性能,提供内置安全性、连续备份、自动多区域复制、内存缓存和数据导出等功能。它有25GB的储存空间,和每月最多2亿次读写请求。还有AWS Lambda计算服务,它可以运行几乎任何类型的应用程序和后端服务代码。还有很多永久免费的功能可以使用,都会无限期供应给亚马逊云科技的用户。
‘叁’ 亚马逊官宣将停止支持云存储服务
亚马逊官宣将停止支持云存储服务
亚马逊官宣将停止支持云存储服务,Amazon Drive 云存储服务在 2011 年 3 月推出上线,距今超过 11 年,亚马逊官宣将停止支持云存储服务。
亚马逊官宣将停止支持云存储服务1
日前亚马逊方面宣布,自 2023 年 12 月 31 日起将不再支持亚马逊云存储服务(Amazon Drive),届时访问将被完全切断,其上传服务将在明年 1 月 31 日起不再提供,适用于 Android 和 iOS 的 APP 也将于 2022 年 10 月 31 日下架。
同时,亚马逊方面表示," 我们将继续为客户提供使用亚马逊相册(Amazon Photos)安全备份、共享和整理照片及视频的能力 "。但是对于所有非图片或视频的文件,用户则必须自行下载。
公开资料中显示,亚马逊云存储服务早在 2011 年 3 月就已推出,并作为 " 亚马逊用户备份文件的安全云存储服务 ",提供 5GB 的免费存储空间以及适用于 Android、iOS 和 Web 的应用。至于亚马逊为何在 11 年后决定停用该服务,官方所给出的'解释是," 我们正借此机会更全面地专注于亚马逊相册,为客户提供专门的照片和视频存储解决方案。"
亚马逊方面建议用户可将相应文件迁移到亚马逊相册里,这一服务可提供 100GB、1TB 和 2TB 存储,价格分别为 1.99 美元 / 月、6.99 美元 / 月和 11.99 美元 / 月。如用户想取消自己的云存储服务订阅,任何时间都可进入到 " 管理存储计划 " 的页面,并取消相关订阅。
亚马逊官宣将停止支持云存储服务2
7 月 30 日,亚马逊陆续给 Amazon Drive 用户发出通知邮件,宣布服务将在 2023 年 12 月 31 日结束,届时官方将删掉用户留在 Amazon Drive 里的所有文件。
Amazon Drive 云存储服务在 2011 年 3 月推出上线,距今超过 11 年,它提供了 5GB 的免费存储空间,也支持 iOS、Android 等多个系统。尤其有 AWS 背书,亚马逊家的云存储在安全性和稳定性等各方面都让用户有很高的预期。
但即便这样,这个免费午餐也要结束了。Amazon Drive 在 iOS 和 Android 这边的 app 今年 10 月 31 日就会下架,明年 1 月 31 日开始 Amazon Drive 将不再支持新的上传。
亚马逊明确地期待用户转移去 Amazon Photos(" 我们借此机会更全面地专注于 Amazon Photos"),这项服务只支持存储图片和视频。目前 Amazon Drive 里的图片和视频也已经自动存到了 Amazon Photos。
Amazon Photos 的免费的部分还是 5GB 空间,付费的话,100GB、1TB 和 2TB 分别是每月 1.99、6.99 和 11.99 美元。如果是 Prime 会员的话就都包括在里面了——会有免费无限量、全分辨率的照片存储和 5GB 视频存储空间。
当然 Prime 会员并不便宜,今年亚马逊还上调了价格,美国 Prime 会员年费是 139 美元,按月的话每月是 14.99 美元(中国的 Prime 会员比较特殊,年费和季度费用分别是 288 元和 79 元,不过权益也少非常多)。
不过对于国内用户来说,这个影响应该是不大的,Amazon Drive 国内用户并不多,且亚马逊面向国内 C 端用户的服务都已基本停止(Kindle 中国业务将在明年 6 月 30 日结束运营,之后面向 C 端用户的服务将只留下海外购)。
近几年国内外云存储服务都大量关停,这也是个明确的趋势,从国内服务来说,安全性、版权问题以及监管等是主要因素,而整体来看,这也是个费力不讨好的业务。
亚马逊官宣将停止支持云存储服务3
亚马逊宣布将结束 Amazon Drive 服务,同时也为 Amazon Drive 用户提供足够时间来转向替代方案。
Amazon Drive 云存储服务于 2011 年 3 月推出,作为 " 亚马逊客户备份文件的安全云存储服务 ",提供 5GB 免费存储空间以及适用于 Android、iOS 和 Web 的应用程序。
亚马逊在谈到 Amazon Drive 停止支持决定时表示:
" 我们正借此机会更全面地专注于 Amazon Photos ,为客户提供专门的照片和视频存储解决方案。"
亚马逊发送给客户的电子邮件中提到:
" 我们将继续为客户提供使用 Amazon Photos 安全备份、共享和组织照片和视频的能力。"
但是,对于照片和视频以外的文件,用户必须从网站手动下载它们。如果需要检索更大的文件,亚马逊还推荐了适用于 Windows 和 macOS 的 Amazon Photos 桌面应用程序。
Amazon Drive 服务将在 2023 年 12 月 31 日停止支持,但 2023 年 1 月 31 日不再支持新的上传,并且适用于 Android 和 iOS 的 Amazon Drive 应用程序将于 2022 年 10 月 31 日被删除下架。如果不想丢失数据,建议用户迁移到 Amazon Photos,该服务提供 100GB、1TB 和 2TB 存储,价格分别为每月 1.99 美元、每月 6.99 美元和每月 11.99 美元。
‘肆’ 快照与备份有什么区别快照是备份的其中一种么还是两种不同的概念
快照是数据存储的某一时刻的状态记录;备份则是数据存储的某一个时刻的副本。这是两种完全不同的概念。
快照和备份的区别:
快照和云硬盘备份均是重要的数据容灾手段,两者存储方案不同。
快照数据与云硬盘数据存储在一起,可以支持快速备份和恢复。
备份数据则存储在对象存储(OBS)中,可以实现在云硬盘存储损坏情况下的数据恢复。
快照当前不支持设置自动创建。备份支持设置自动创建,您可以指定备份策略,系统会根据策略自动对云硬盘进行数据备份。
存储快照的实现原理
目前,快照的实现方式均由各个厂商自行决定,但主要技术分为2类,一种是写时拷贝COW(Copy On Write),另一种,是写重定向ROW(Redirect On Write)。
写时拷贝COW(Copy-On-Write),也称为写前拷贝。
创建快照以后,如果源卷的数据发生了变化,那么快照系统会首先将原始数据拷贝到快照卷上对应的数据块中,然后再对源卷进行改写。
‘伍’ 三十五、ElasticsearchI基于snapshot+ Hadoop hdfs进行数据备份和恢复
一、es生产集群备份恢复之基于snapshot+hdfs进行数据备份
1、es集群数据备份
任何一个存储数据的软件,都需要定期的备份数据。es replica提供了运行时的高可用保障机制,可以容忍少数节点的故障和部分数据的丢失,但是整体上却不会丢失任何数据,而且不会影响集群运行。但是replica没法进行灾难性的数据保护,比如说机房彻底停电,所有机器全部宕机,等等情况。对于这种灾难性的故障,我们就需要对集群中的数据进行备份了,集群中数据的完整备份。
要备份集群数据,就要使用snapshot api。这个api会将集群当前的状态和数据全部存储到一个外部的共享目录中去,比如NAS,或者hdfs。而且备份过程是非常智能的,第一次会备份全量的数据,但是接下来的snapshot就是备份两次snapshot之间的增量数据了。数据是增量进入es集群或者从es中删除的,那么每次做snapshot备份的时候,也会自动在snapshot备份中增量增加数据或者删除部分数据。因此这就意味着每次增量备份的速度都是非常快的。
如果要使用这个功能,我们需要有一个预先准备好的独立于es之外的共享目录,用来保存我们的snapshot备份数据。es支持多种不同的目录类型:shared filesystem,比如NAS;Amazon S3;hdfs;Azure Cloud。不过对于国内的情况而言,其实NAS应该很少用,一般来说,就用hdfs会比较多一些,跟hadoop这种离线大数据技术栈整合起来使用。
2、创建备份仓库
(1)创建和查询仓库的命令
这里用了shared filesystem作为仓库类型,包括了仓库名称以及仓库类型是fs,还有仓库的地址。这个里面就包含了仓库的一些必要的元数据了。可能还有其他的一些参数可以配置,主要是基于我们的node和网络的性能来配置。max_snapshot_bytes_per_sec,这个参数用于指定数据从es灌入仓库的时候,进行限流,默认是20mb/s。max_restore_bytes_per_sec,这个参数用于指定数据从仓库中恢复到es的时候,进行限流,默认也是20mb/s。假如说网络是非常快速的,那么可以提高这两个参数的值,可以加快每次备份和恢复的速度,比如下面:
创建一个仓库之后,就可以查看这个仓库的信息了:GET /_snapshot/my_backup,或者是查看所有的仓库,GET /_snapshot/_all。可能返回如下的信息:
(2)基于hdfs创建仓库
首先先要在es插件目录安装repository-hdfs的插件:bin/elasticsearch-plugin install repository-hdfs,必须在每个节点上都安装,然后重启整个集群。
在3个hdfs node上,都加入hdfs-site.xml,禁止权限检查,如果要修改这个配置文件,要先在/usr/local/hadoop/sbin,运行./stop-dfs.sh,停止整个hdfs集群,然后在3个node上,都修改hdfs-site.xml,加入下面的配置,禁止权限的检查
hdfs snapshot/restore plugin是跟最新的hadoop 2.x整合起来使用的,目前是hadoop 2.7.1。所以如果我们使用的hadoop版本跟这个es hdfs plugin的版本不兼容,那么考虑在hdfs plugin的文件夹里,将hadoop相关jar包都替换成我们自己的hadoop版本对应的jar包。即使hadoop已经在es所在机器上也安装了,但是为了安全考虑,还是应该将hadoop jar包放在hdfs plugin的目录中。
安装好了hdfs plugin之后,就可以创建hdfs仓库了,用如下的命令即可:
(3)验证仓库
在课程演示中,最好都是用root用户去演示,一般来说就够了,因为在不同的公司里,你可能linux用户管理,权限,都不太一样
专门去建一套用户和授权去演示,不太合适
如果一个仓库被创建好之后,我们可以立即去验证一下这个仓库是否可以在所有节点上正常使用。verify参数都可以用来做这个事情,比如下面的命令。这个命令会返回一个node列表,证明那些node都验证过了这个仓库是ok的,可以使用的
先停止整个es集群,然后在3个节点上,都加入下面的配置,然后用elasticsearch账号重启整个es集群
3、对索引进行snapshotting备份
(1)对所有open的索引进行snapshotting备份
一个仓库可以包含多分snapshot,每个snapshot是一部分索引的备份数据,创建一份snapshot备份时,我们要指定要备份的索引。比如下面这行命令:PUT _snapshot/my_hdfs_repository/snapshot_1,这行命令就会将所有open的索引都放入一个叫做snapshot_1的备份,并且放入my_backup仓库中。这个命令会立即返回,然后备份操作会被后台继续进行。如果我们不希望备份操作以后台方式运行,而是希望在前台发送请求时等待备份操作执行完成,那么可以加一个参数即可,比如下面这样:PUT _snapshot/my_backup/snapshot_1?wait_for_completion=true。
另一种方式
curl -XPUT ' http://elasticsearch02:9200/_snapshot/my_hdfs_repository/snapshot_1'
(2)对指定的索引进行snapshotting备份
默认的备份是会备份所有的索引,但是有的时候,可能我们不希望备份所有的索引,有些可能是不重要的数据,而且量很大,没有必要占用我们的hdfs磁盘资源,那么可以指定备份少数重要的数据即可。此时可以使用下面的命令去备份指定的索引:
ignore_unavailable如果设置为true的话,那么那些不存在的index就会被忽略掉,不会进行备份过程中。默认情况下,这个参数是不设置的,那么此时如果某个index丢失了,会导致备份过程失败。设置include_global_state为false,可以阻止cluster的全局state也作为snapshot的一部分被备份。默认情况下,如果某个索引的部分primary shard不可用,那么会导致备份过程失败,那么此时可以将partial设置为true。
而且snapshotting的过程是增量进行的,每次执行snapshotting的时候,es会分析已经存在于仓库中的snapshot对应的index file,然后仅仅备份那些自从上次snapshot之后新创建的或者有过修改的index files。这就允许多个snapshot在仓库中可以用一种紧凑的模式来存储。而且snapshotting过程是不会阻塞所有的es读写操作的,然而,在snapshotting开始之后,写入index中的数据,是不会反应到这次snapshot中的。每次snapshot除了创建一份index的副本之外,还可以保存全局的cluster元数据,里面包含了全局的cluster设置和template。
每次只能执行一次snapshot操作,如果某个shard正在被snapshot备份,那么这个shard此时就不能被移动到其他node上去,这会影响shard rebalance的操作。只有在snapshot结束之后,这个shard才能够被移动到其他的node上去。
4、查看snapshot备份列表
一旦我们在仓库中备份了一些snapshot之后,就可以查看这些snapshot相关的详细信息了,使用这行命令就可以查看指定的snapshot的详细信息:GET _snapshot/my_backup/snapshot_2,结果大致如下所示。当然也可以查看所有的snapshot列表,GET _snapshot/my_backup/_all。
5、删除snapshot备份
如果要删除过于陈旧的snapshot备份快照,那么使用下面这行命令即可:DELETE _snapshot/my_backup/snapshot_2。记住,一定要用api去删除snapshot,不要自己手动跑到hdfs里删除这个数据。因为snapshot是增量的,有可能很多snapshot依赖于底层的某一个公共的旧的snapshot segment。但是delete api是理解数据如何增量存储和互相依赖的,所以可以正确的删除那些不用的数据。如果我们自己手工进行hdfs文件删除,可能导致我们的backup数据破损掉,就无法使用了。
6、监控snapshotting的进度
使用wait_for_completion可以在前台等待备份完成,但是实际上也没什么必要,因为可能要备份的数据量特别大,难道还等待1个小时??看着是不太现实的,所以一般还是在后台运行备份过程,然后使用另外一个监控api来查看备份的进度,首先可以获取一个snapshot ID:GET _snapshot/my_backup/snapshot_3。如果这个snapshot还在备份过程中,此时我们就可以看到一些信息,比如什么时候开始备份的,已经运行了多长时间,等等。然而,这个api用了跟snapshot一样的线程池去执行,如果我们在备份非常大的shard,进度的更新可能会非常之慢。一个更好的选择是用_status API,GET _snapshot/my_backup/snapshot_3/_status,这个api立即返回最详细的数据。这里我们可以看到总共有几个shard在备份,已经完成了几个,还剩下几个,包括每个索引的shard的备份进度:
7、取消snapshotting备份过程
如果我们想要取消一个正在执行的snapshotting备份过程,比如我们发现备份时间过于长,希望先取消然后在晚上再运行,或者是因为不小心误操作发起了一次备份操作,这个时候就可以运行下面这条命令:DELETE _snapshot/my_backup/snapshot_3。也就是立即删除这个snapshot,这个命令会去取消snapshot的过程,同时将备份了一半的仓库中的数据给删除掉。
curl -XDELETE ' http://elasticsearch02:9200/_snapshot/my_hdfs_repository/snapshot_1'
9、es生产集群备份恢复之基于snapshot+hdfs+restore进行数据恢复
1、基于snapshot的数据恢复
正经备份,一般来说,是在一个shell脚本里,你用crontab做一个定时去做增量备份。
那么在es集群故障,导致数据丢失的时候,就可以用_restore api进行数据恢复了。比如下面这行命令:
POST _snapshot/my_hdfs_repository/snapshot_1/_restore。
文件中所有索引都全恢复。在某些场景下,我们想恢复一些数据但是不要覆盖现有数据,用下面的命令即可恢复数据,并且进行重命名操作:
这个restore过程也是在后台运行的,如果要在前台等待它运行完,那么可以加上wait_for_completion flag:POST
_snapshot/my_backup/snapshot_1/_restore?wait_for_completion=true。
?wait_for_completion=true,等待它备份完成了以后,才会去执行下一条命令
restore过程只能针对已经close掉的index来执行,而且这个index的shard还必须跟snapshot中的index的shard数量是一致的。restore操作会自动在恢复好一个index之后open这个index,或者如果这些index不存在,那么就会自动创建这些index。如果通过include_global_state存储了集群的state,还会同时恢复一些template。
默认情况下,如果某个索引在恢复的时候,没有在snapshot中拥有所有的shard的备份,那么恢复操作就会失败,比如某个shard恢复失败了。但是如果将partial设置为true,那么在上述情况下,就还是可以进行恢复操作得。不过在恢复之后,会自动重新创建足够数量的replica shard。
此外,还可以在恢复的过程中,修改index的一些设置,比如下面的命令:
2、监控restore的进度
从一个仓库中恢复数据,其实内部机制跟从其他的node上恢复一个shard是一样的。如果要监控这个恢复的过程,可以用recovery api,比如:
GET restored_index_3/_recovery。
如果要看所有索引的恢复进度:GET /_recovery/。可以看到恢复进度的大致的百分比。
3、取消恢复过程
如果要取消一个恢复过程,那么需要删除已经被恢复到es中的数据。因为一个恢复过程就只是一个shard恢复,发送一个delete操作删除那个索引即可,如果那个索引正在被恢复,那么这个delete命令就会停止恢复过程,然后删除已经恢复的 所有数据。
‘陆’ 亚马逊ec2免费套餐每月流量限制是多少
网页链接
每个月,AWS 免费使用套餐包括以下内容:
750 小时的Amazon EC2Linux 或 RHEL 或 SLES t2.micro 实例使用时间(配置为 1 GiB 的内存、32 位和 64 位平台支持),足够整月持续运行*
750 小时的Amazon EC2Microsoft Windows Server t2.micro 实例使用时间(配置为 1 GiB 内存、32 位和 64 位平台支持),足够小时以便每月持续运行*
750 小时的Elastic Load Balancer加上 15 GB 数据处理*
750 小时的Amazon RDS单可用区微型数据库实例使用时间,可用于运行 MySQL、MariaDB、PostgreSQL、Oracle BYOL 或 SQL Server Express Edition,足够整月持续运行数据库实例。您还可以获得 20GB 的数据库存储和 20GB 的备份存储。*
750 小时的Amazon ElastiCache微型缓存节点使用时间 – 足够用户每月连续不间断地运行。*
30 GB 的Amazon Elastic Block Storage(以任意方式对通用型 (SSD) 或磁性介质型进行组合),附加 200 万次 I/O(采用 EBS 磁性介质)和 1 GB 快照存储***
5 GB 的Amazon S3标准存储,20000 个获取请求以及 2000 放入请求。*
25 GB 的存储容量、25 个读取容量单位和 25 个写入容量单位,足以使用Amazon DynamoDB处理每月高达 200M 的请求。**
25 个Amazon SimpleDB机器小时和 1 GB 存储**
可免费启动 1000 个Amazon SWF工作流执行。还可以免费使用总共 10000 活动任务、信号、定时器和标记,以及 30000 个工作流日。**
100 000 个Amazon Simple Queue Service请求**
可与Amazon Simple Notification Service配合使用的 100 000 个请求、100 000 HTTP 通知和 1 000 份电子邮件通知**
10 个Amazon CloudWatch指标、10 个警报和 1000000 个 API 请求**
50 GB 的数据传出以及 2000000 个针对Amazon CloudFront的 HTTP 和 HTTPS 请求*
适用于所有 AWS 服务的共计 15GB 的带宽传出量
‘柒’ AWS亚马逊Redshift的特点功能介绍
Redshift即是AWS提供的一款:云上数据仓库服务
Redshift同我们前面使用的RDS一样,是一个全托管的服务(非完全的server less,可以选择集群数量和性能,但是无需管理)
Redshift同RDS一样,只需要鼠标点击几下,即可得到一款可用的高性能、高可靠的数据仓库服务。
但是与RDS不同的是,Redshift可以选择集群模式,也就是可以选择Redshift底层,基于多少台硬件服务器提供算力和存储。
同时,从概念上也不同,我们列个表格来看一下Redshift和RDS的区别
那么来看看Redshift有什么特点。
Amazon Redshift 使用了多种创新技术,对于大小在 100GB 到 1PB 或更高的数据集,可以实现很高的查询性能,并使用了列式存储。Amazon Redshift 采用了大规模并行处理 (MPP) 数据仓库架构,可以对 SQL 操作进行并行分布处理,以便利用所有可用资源。底层硬件支持高性能数据处理,使用本地连接的存储以便尽可能增大 CPU 与驱动器之间的吞吐量,同时使用 10GigE 网状网络以便尽可能增大节点之间的吞吐量。
仅需在 AWS 管理控制台中单击几下或通过一次简单的 API 调用,您就能在性能或容量需求发生变化时,轻松更改云数据仓库中的节点数量或类型。
利用 Amazon Redshift,您只要用单个 160GB DC2.Large 节点就可开始,并能一路扩展到使用 16TB DS2.8XLarge 节点的 1PB 或者更多压缩用户数据。 调整大小时,Amazon Redshift 可将您现有的集群置于只读模式,并预置一个您选定大小的新集群,然后将数据从您的旧集群并行复制到您的新集群。在预置新集群的同时,您可继续对您的旧集群进行查询。一旦您的数据被复制到新集群,Amazon Redshift 会自动将查询重新定向至新集群,并移除旧集群。
Amazon Redshift 处理数据仓库的管理、监控及扩展所需的所有工作,从监控集群运行状况、备份到进行修补和升级。
在性能和容量需求发生变化时,您可以轻松调整集群大小。通过处理所有这些耗时耗力的任务,Amazon Redshift 使您得到了解脱并专注于您的数据和业务。
Amazon Redshift 的自动快照功能连续地将集群上的数据备份至 Amazon S3。备份是连续、递增而自动的。
Amazon Redshift 按用户定义的期间存储您的快照,此期间可以是 1 到 35 天。您可在任何时候拍摄您自己的快照,这些快照利用所有现有的系统快照,并可保留到您明确地删除它们时为止。
Redshift 还能将您的快照异步复制到另一个区域的 S3 中进行灾难恢复。一旦您删除了某个集群,您的系统快照也将被移除,但您的用户快照在您明确地删除它们之前仍可使用。
您可通过 AWS 管理控制台或 Amazon Redshift API 使用任何系统快照或用户快照来恢复您的集群。
系统元数据恢复后,您的集群就可供使用,并且您可在用户数据在后台输出时开始运行查询。
Amazon Redshift 拥有多种能够提高数据仓库集群可靠性的功能。
所有写入集群内节点的数据均会自动复制到集群内的其他节点,且所有数据会被连续备份至 Amazon S3。Amazon Redshift 会持续监控集群的运行状况并会自动从出现故障的驱动器重新复制数据,并在必要时替换节点。
并且这一切完全无需用户管理,AWS为您管理一切,用户只需要关心业务开发即可。
借助 Amazon Redshift,您可以配置防火墙规则,以控制对数据仓库集群的网络访问。您可以在 Amazon Virtual Private Cloud (Amazon VPC) 中运行 Amazon Redshift,将您的数据仓库集群隔离在您自己的虚拟网络中。
Amazon Redshift 与 AWS CloudTrail 相集成,使您能够对所有的 Redshift API 调用进行审计。Amazon Redshift 还会记录所有的 SQL 操作,包括连接尝试、查询和数据库变动。您可以使用 SQL 查询在系统表格中访问这些记录,或选择将其下载到 Amazon S3 上的某个位置。
Amazon Redshift 是一种 SQL 数据仓库解决方案,使用了行业标准的 ODBC 和 JDBC 连接。可以从控制台的连接客户端选项卡中下载我们的定制 JDBC 和 ODBC 驱动程序。
Amazon Redshift 与其他 AWS 服务相集成,并内置了命令将数据从 Amazon S3、Amazon DynamoDB 或 Amazon EC2 实例以及使用 SSH 的本地服务器中并行加载到每个节点。Amazon Kinesis 还集成了 Amazon Redshift 作为数据目标。
‘捌’ aws日本服务器免费吗
现在很多云平台都有提供免费试用服务,比如Amazon AWS 12 个月免费套餐、Google GCP $300 Free Tier、Microsoft Azure $300 Free Tier、CenturyLink $500 Free Tier 等等,当然了,还有其他的云厂商如阿里云也有免费体验活动,这里就不一一列出来了。
一、免费额度及正常定价
1、AWS
I、免费额度
Amazon AWS 有分国内和国外两个版本,这里说的是国外版本,AWS 在日本、韩国、新加坡等亚洲区域拥有自建机房和骨干网,国内全程 NTT 线路。其免费体验的注册地址是:
AWS 免费套餐。
主要免费项目有:
Amazon EC2 750 小时/每月 Linux、RHEL、Windows、SLES t2.micro 实例使用时间;
Amazon S3 5GB 标准存储;
Amazon EC2 Container Registry 500M/月;
Amazon CloudFront 50GB 传出数据;
Amazon Elastic Block Storage 最大 30GB 以及 1G 快照;
所有 AWS 服务的共计 15GB 的带宽传出;
总结就是,可以开一台 Windows 或 Linux 虚拟机,配置为内存 1G,硬盘最大 30G,月流量 15GB。
II 、正常定价
为避免不需要的支出,一般选择的是 Amazon AWS 按需计费,此服务按小时结算,以免费额度的套餐内容为例:
AWS EC2 t2.micro 实例:$0.016/小时(约 $11.9/月);
网络入站数据:免费;
区域内入站数据:$0.01/GB(一般产生于有多个实例);
出口数据:前 1GB /月免费,10TB 以内 $0.14/GB;
弹性 IP:已关联实例免费,未关联 $0.005/小时;
一般使用 EC2 的都是大企业客户,主要是因为其相对稳定,个人客户可以考虑选择 LightSail ,CPU、内存、流量、硬盘打包销售,最低每月仅需 $3.5,首月还提供免费试用。
2、GCP
I、免费额度
GCP 全称 Google Cloud Platform,谷歌旗下云产品,目前在台湾、香港、日本、新加坡等亚洲区域已有机房,总的来说对大陆会更友好些(移动全程绕美国,联通部分绕美国,电信直连)。其免费体验注册地址是:
GCP Free Tier。
GCP 除信用卡外对免费体验限制不大,提供的 $300 可用于全部项目,包括主机、流量、CDN 等等,按使用量按分钟计费抵扣。其中以下项目是在一年体验期结束后仍然免费的(注意不含流量费):
每月 1 个 f1-micro 实例(仅限美国部分区域);
30 GB/月 硬盘,5 GB/月 快照;
5 GB/月 区域存储(仅限美国部分区域);
1 GB 存储空间的源码托管;
II 、正常定价
GCP 与 AWS 一样是按需计费,但是以分钟为结算单位(AWS 按时),并且每个机房的定价都是不一样的。以台湾机房为例:
f1-micro VM 实例:$0.009/小时(约 $4.6/月);
入口数据:免费(指网络到实例);
出口至同一区域产品数据:免费;
出口到中国境内数据:1TB 以内 $0.46/GB;
弹性 IP:已关联实例免费,未关联 $0.01/小时;3、Azure
I、标准试用
Azure 提供 $200 一个月的标准试用Azure 国际版免费试用套餐目前提供 1+12 个月免费套餐(即首月 $200 试用 + 12 个月免费套餐,不含国内世纪互联代理的 Azure,注册需提供银行卡、手机号)
免费套餐包含(不含首月,首月 $200 以内都免费):
750 小时 B1S 虚拟机 (Windows 或 Linux 各一台);
64G x2 托管磁盘;
15G 出站数据;
250G SQL 数据库;
需要注意的是,12 个月免费套餐是在 $200 结束后开始,需要手动升级成即用即付订阅才能享受。这里也给大家提个醒,升级后超出免费套餐就会扣钱了(与 AWS 一致),而且必须严格执行免费套餐的内容,比如磁盘免费的是高级 SSD P6 64GB,你开 32 GB 的虽然容量小了,但 Azure 正常收费!
2019年更新:免费套餐建议通过官方的免费服务开通,不要自己在虚拟机里直接创建,这样就可以避免莫名其妙被收费了,可以开 Linux 和 Windows 各一个虚拟机,位置可选东南亚、美国东部、美国西部2、美国中部、西欧五个数据中心。
II、学生试用
Azure 提供 $100 一年的学生订阅,注册地址(无需银行卡,概率需手机号验证,IP 与地址及手机号码不符无法通过,VOIP 手机号无法通过):
注册地址
免费项目有:
标准试用的所有内容;
$100 无限制余额;
III、正常定价
Azure 同样是按需计费,以最低配置(不同区域定价不同)为例:
A0 VM 实例:$0.017/小时(约 $13.39/月);
入口数据:免费;
出口至亚洲数据:前 5GB/月免费,10TB 以内 $0.12/GB;
其他标准定价参见官网说明;
Azure 学生订阅定额 $100/年,如果只开标准免费 B1S 配置,每月大约有 74GB 流量可用。
三、总结
通过上面说明,相信大家对几家平台的免费政策以及正常收费有了一定的了解,各家有各家的优势,比如 Amazon AWS 日本机房、Google GCP 台湾机房、Microsoft Azure 香港机房对大陆友好,但也有各自的不足,比如 Amazon 流量少、Google 流量贵、Microsoft 申请难等等。大家在具体采购使用前,可以先通过各家云平台提供的免费试用测试下,然后再评价是否符合需求。
‘玖’ 五大数据库理念,读懂亚马逊云科技的数据库布局
1970 年,关系型数据库之父 E.F.Codd 发表《用于大型共享数据库的关系数据模型》论文,正式拉开数据库技术发展序幕。以 Oracle、DB2、SQL Server 为代表的三大商业数据库产品独占鳌头,随后涌现出 MySQL、PostgreSQL 等为代表的开源数据库 ,和以 Amazon RDS 等为代表的云数据库,拉开百花齐放的数据库新序幕。
我们知道,云计算十年为产业转型升级提供了 历史 性契机,但变革仍在进行,随着云计算的普及,数据库市场发生根本性改变,云厂商打破传统商业数据库的堡垒,成为数据库领域全新力量。其中以连续六年入选 Gartner 领导者象限的亚马逊云 科技 为代表,我们一起探讨:为什么亚马逊云 科技 能始终保持其创新性?纵观云原生时代下,亚马逊云 科技 数据库未来还有哪些更多的可能性?
01 面对四大数据库发展趋势,亚马逊云 科技 打造五大数据库理念
后疫情时代下,加速了不少行业的业务在线化和数字化运营,企业对数据价值挖掘的需求越发强烈,亚马逊云 科技 大中华区产品部总经理顾凡详细介绍其中四大趋势:
一是伴随互联网、移动互联网的发展,电商、视频、社交、出行等新应用场景的兴起,不仅数据量大,对数据实时性要求极高,传统关系型数据库无法满足需求,因此驱动云原生数据库的出现。
二是开源数据库的广泛应用。
三是应用程序现代化对数据库提出更高要求,期待数据库拥有更高的性能、可扩展性、可用性以及降低成本,让开发人员专注于核心业务的应用开发,不用关注和核心业务无关的代码。
四是软件架构历经 PC、互联网、移动互联网,再到如今的万物互联时代,其中的迭代和转型正在驱动数据库选型的变化。
在此四大趋势下,伴随企业的业务量越来越大、越来越复杂,对数据库的要求越来越高。亚马逊云 科技 洞察客户需求,在打造云上数据库产品时提出五大理念:
一是专库专用,极致性能;二是无服务器,敏捷创新;第三是全球架构,一键部署;第四是平滑迁移,加速上云;第五是 AI 赋能,深度集成。
02 历经真实锤炼,五大数据库理念,持续赋能企业数智转型
顾凡表示,随着数据爆炸式增长,微服务架构与 DevOps 愈发流行的今天,一个数据库打天下的时代已然过去。我们需要在不同的应用场景下,针对不同的数据类型和不同的数据访问特点,为开发者和企业提供专门构建的工具。
所以亚马逊云 科技 提出 第一个核心数据库理念:专库专用 。在此理念下,推出针对关系数据、键值数据、文档数据、内存数据、图数据、时许数据、分类账数据、宽列等专门构建数据库的产品家族。
这些数据库产品均经历过亚马逊内部核心业务的真实锤炼,成绩斐然:
亚马逊电商当年是 Oracle 的客户之一,随着亚马逊电商的应用重构和业务体量发展,亚马逊电商决定将业务迁移到亚马逊云 科技 里。100 多个团队参与这庞大的迁移工作中,将亚马逊电商采购、目录管理、订单执行、广告、财务系统、钱包、视频流等关键系统全部从 Oracle 迁出来。2019 年,亚马逊将存储近 7500 个Oracle 数据库中的 75 PB 内部数据迁移到多项亚马逊云 科技 的数据库服务中,包括 Amazon DynamoDB、Amazon Aurora、Amazon ElastiCache,于是亚马逊电商成为亚马逊云 科技 在全球的“第一大客户”。
从 Oracle 切换到亚马逊云 科技 后,亚马逊电商节省了 60% 成本,面向消费者端的应用程序延迟降低 40%,数据库管理支出减少 70%。
以被誉为“亚马逊云 科技 历史 上用户数量增速最快的云服务”Amazon Aurora 为例,其拥有科媲美高端商业数据库的速度和可用性,还拥有开源数据库的简单性与成本效益,Amazon Aurora 让客户满足“鱼和熊掌兼得”需求。
据顾凡介绍,Amazon Aurora 可提供 5 倍于标准 MySQL 性能,3 倍于 PostgreSQL 吞吐量。同时提供高可用,可用区(AZ)+1的高可用,Global Databases 可完成跨区域灾备。可扩展到 15 个只读副本,成本只有商业数据库的 1/10。
医药企业九州通为药厂、供应商,搭建药厂、供应商、消费者提供供应链链条。其 B2B 系统的业务特点是读多写少,受促销活动、工作时间等影响,经常会出现波峰波谷落差较大的情况,读写比例在 7:2 或者 8:3。九州通采用 Amazon Aurora 后实现读写分离和按需扩展,整体数据库性能提升 5 倍,TCO 降低 50%。实现了跨可用区部署、负载均衡、自动故障转移、精细监控、按需自动伸缩等。
据权威机构预测,到 2022 年,75% 数据库将被部署或迁移至云平台。在这个过程中,亚马逊云 科技 是如何通过技术来帮助客户加速应用上云的?这离不开除了上述的“专库专用”外,以下四大理念:
第二个理念是无服务器、敏捷创新。 亚马逊云 科技 大中华区产品部数据类产品高级经理王晓野表示,企业业务总有波峰波谷之时,如何按照企业 80-90% 的业务峰值来规划数据库的存储容量和计算资源的话,将给应用带来一定的业务连续性的妥协和挑战。因此大多数企业都是按照峰值留有余地来选择数据库的计算资源,这将造成成本上的浪费。而 Serverless 数据库服务可完成无差别的繁复工作和自动化扩展。
Amazon DynamoDB 是亚马逊云 科技 自研 Serverless 数据库,其诞生最早可追溯到 2004 年,当时亚马逊电商作为 Oracle 的客户,尽管对于关系型数据库在零售场景的需求并不频繁,70% 均是键值类操作,此时倒逼亚马逊电商思考:为什么要把关系型数据库这么重得使用?我们可以设计一款支持读写、可横向扩展的分布式数据库吗?后来的故事大家都知道了,这款数据库就是 Amazon DynamoDB,并在 2007 年发表论文,掀起业界 NoSQL 分布式数据库技术创新大潮。
Amazon DynamoDB 可为大规模应用提供支持,支撑亚马逊自身多个高流量网站和系统,如亚马逊电商网站、亚马逊全球 442 个物流中心等。在亚马逊电商一年一度 Prime Day,光是针对DynamoDB API 的调用达到数万亿次,最高峰值请求达到每秒 8920 万次。由此可见,DynamoDB 拥有高吞吐、扩展性、一致性、可预测响应延迟、高可用等优势。
智能可穿戴设备厂商华米 科技 ,在全球 70 多个国家拥有近 1 亿用户。仅 2020 年上半年,其手表出货量超 174 万台,截止到 2021 年 2 月,华米 科技 的可穿戴设备累计记录步数是 151 万步,累计记录的睡眠时间是 128 亿个夜晚,记录心率总时长达 1208 亿个小时。如此庞大的数据同时必须保证极高的安全性和低延迟相应,如何保证稳定性是巨大的挑战。
DynamoDB 帮助华米 科技 在任何规模下都能提供延迟不超过 10 毫秒的一致响应时间。华米 科技 健康 云的 P0 和 P1 级别故障减少了约 30%,总体服务可用性提升了 0.25%,系统可用性指标达到 99.99%,为华为 科技 全球化扩展提供了有力的支撑。
最新无服务数据库产品是 Amazon Aurora Serverless V2 提供瞬间扩展能力,真正把扩展能力发挥到极致,在不到一秒的时间内,将几百个事务扩展到数十万的级别。同时在扩展时每一次调整的增量都是非常精细化的去管理,如果按照峰值来规划数据库资源,可实现大概90%的成本节省。目前 Amazon Aurora Serverless V2 在全球实现预览。
第三个理念是全球架构、一键部署。 在全球化的今天,如何支撑全球客户的业务扩展连续性、一致性、以最低延迟带给到终端客户上,对数据库提出新的挑战。
亚马逊云 科技 提供 Amazon Aurora 关系型数据库Global Database、Amazon DynamoDB、Amazon ElastiCache 内存数据库、Amazon DocumentDB 文档数据库都能利用亚马逊云 科技 的骨干网络提供比互联网更稳定的网络支撑,以一键部署的方式,帮助客户实现几千公里跨区域数据库灾备,故障恢复大概能在一分钟之内完成,同时跨区域的数据复制延迟通常小于一秒。
第四个理念是平滑迁移、加速上云。 目前,450000+ 数据库通过亚马逊云 科技 数据库迁移服务迁移到亚马逊云 科技 中,这个数字每年都在不断增长。亚马逊云 科技 提供 Amazon DMS、Amazon Database Migration Service 等工具让开发者和企业进行自助式云迁移。另外,对于迁移过程中可能会需要的支持,可通过专业服务团队和合作伙伴网络成员,为客户提供专业支持,还通过 Database Freedom 项目帮助客户降低他们的顾虑。
今年 11 月,最新产品 Babelfish for Amazon Aurora PostgreSQL 在全球和中国两个区域正式可用,可加速企业上云的迁移,实现让企业可以利用原有的技术栈、原有的 SQL Server T-SQL的人员可以利用到云数据库进行创新。
第五个理念是 AI赋能,深度集成。 我们观察到,ML 技术赋能数据库开发者,开发者无需具备机器学习专业知识,就可进行机器学习操作。在此潮流下,亚马逊云 科技 推出 Amazon Neptune,借由 Deep Graph Library 和 Amazon SageMaker 驱动图神经网络。
今年 8 月,Neptune ML 在中国正式可用,允许数据工程师不需要掌握机器学习的技能直接从图数据库里导出数据、转换格式、训练模型并发布,用 gremlin 语句调用训练成的模型在数据库里实现推理,进行欺诈检测,推荐物品。
目前,亚马逊云 科技 加速在中国区域服务落地,2021年至今新发布 60 多个数据库服务与功能。亚马逊云 科技 正是通过上述五大数据库理念,打造丰富的数据库产品家族,在全球智能化发展趋势下,为企业提供更快更好的数智服务,释放数据价值,并连续六年入选 Gartner 领导者象限,得到业界和客户的深度认可。