万博manbetx手机客户端2015年中国公有云服务发展报
发布时间:2018-06-22 22:00 来源: 未知 作者: admin 投稿邮箱:

企业人工智能在输入数据中比在消费级AI或学术界中具有更普遍的细微差别。这个领域的致命弱点是事后偏见。通俗地说,就像Marty McFly(电影《回到未来》中的人物)回到未来,打开体

  企业人工智能在输入数据中比在消费级AI或学术界中具有更普遍的细微差别。这个领域的致命弱点是事后偏见。通俗地说,就像Marty McFly(电影《回到未来》中的人物)回到未来,打开体育年鉴,并用它来投注现在的比赛。来自Salesforce Einstein的Mayukh Bhaowal解释了如何解决这个问题。

  4 月 23 日,TGO 鲲鹏会上海分会会员,贝壳金控高级架构总监赵文乐作为 TGO 鲲鹏会线上分享第六季的嘉宾,以直播的形式分享了服务治理的范围及原因、服务拆分和治理的原则,以及 Spring Cloud 的服务治理等内容。本文根据当天直播内容整理。

  2015年12月,InfoQ的编辑魏星邀请作者撰写一篇关于中国公有云服务发展状况的文章。因为作者个人对公有云这个领域一直抱有很大的兴趣,便贸然答应了下来。在这篇文章的准备过程中,作者系统地阅读了国内较为知名的几份云计算白皮书

  。作者发现这些报告大都高瞻远瞩提纲挈领,缺乏对具体的公有云服务提供商的描述,未能让读者一窥国内公有云服务发展之真实面貌。在InfoQ的协调下,作者与国内多家公有云服务提供商的主要负责人进行了电话访谈,围绕

  团队建设、产品研发、服务运营这三个问题进行了讨论。除此之外,作者也在本文所探讨的所有公有云上都注册了账号,从用户体检的角度进行了一些小规模的测试。这篇文章的目的,便是从团队建设、产品研发、服务运营、用户体验等四个方面对中国的公有云服务发展状况做一个简要的综述。根据美国国家标准技术研究院(NIST)的定义[4]

  ,云计算在服务模型上可以划分为软件即服务(SaaS)、平台即服务(PaaS)和设施即服务(IaaS),在发布模型上又可以划分为私有云、社区云、公有云和混合云。需要说明的是,随着云计算技术的发展,如上所述服务模型和发布模型之间的界限也日趋模糊。在本文的范畴内,“公有云”一词泛指面向公众开放服务的平台即服务和设施即服务。除此之外,各种名义的私有云(Private Cloud)、专有云(Dedicated Cloud)、托管云(Managed Cloud)均未包括在本文的范畴之中。

  本文中“团队建设”、“产品研发”、“服务运营”三个小节的数据来源有两个。一个是云服务提供商主动发布的新闻资讯,另一个是作者与云服务提供商的主要负责人之间的电话访谈。作者与黄允松(青云)、季昕华(UCloud)、李爽(美团云)、钱广杰(盛大云)、沈志华(又拍云)、王慧星(腾讯云)、许式伟(七牛云)、朱桦(金山云)等业内专家(按姓氏拼音排序)的访谈,是由InfoQ方面统一协调安排的,在此作者深表感谢。这个三个小节的内容,在定稿之前均经过受访者及其公关/市场团队的确认,反映的是云服务提供商自身的观点和思路。在审稿阶段,青云撤回了与作者进行访谈时所发表的一切言论;出于保护商业机密的考虑,阿里云拒绝了作者的访谈邀请。因此,如上三个小节未能包括青云和阿里云的观点。

  “用户体验”和“其他讨论”这两个小节,是作者独立获得的数据以及由此引出的观点,在定稿之前未接受任何一家云服务提供商的审核。需要特别说明的是,如上所述云服务提供商的主要负责人接受作者的访谈并不代表他们认可作者在“用户体验”和“其他讨论”这两个小节中所报告的数据和观点。此外,作者本人也并不持有本文中所讨论的任何一家云服务提供商的内幕信息,作者独立获得的数据仅仅是基于作者所使用的测试方法得到的观测结果。受种种技术条件的限制,作者无法对这些数据的准确性进行背书,也无法对其误差范围进行估算。本文中报告的大部分数据是在2016年3月底之前获得的,这部分数据的获取时间在正文中不再特别说明;小部分数据是在2016年8月底获得的,这部分数据的获取时间在正文中会有特别说明。读者在引用本文所报告之数据时,应当考虑到数据的时效性。

  弹性计算的核心,是负载均衡与自动伸缩的有机结合。负载均衡这个概念出现得比较早,在整个IT行业都已经被广泛接受和广泛应用。本文中所讨论的几家公有云服务提供商,基本上都提供了负载均衡的功能或者特性。自动伸缩则是云计算“按需获取、按量计费”理念的具体实现,最早的实现是AWS针对其EC2服务所提供的AutoScaling Group(ASG)功能。本文中讨论的几家公有云服务提供商,只有阿里云(2014年9月)、青云(2015年3月)和UCloud(2016年6月)提供了类似于ASG的自动伸缩功能。

  对于一个正常的Web应用,其负载通常可以划分成三个档次:长期平均负载,长期高峰负载,短期爆发负载。在每秒只有数百个请求的情况下,云主机集群具备每秒处理一万个请求的能力是没有必要的。在每秒达到数万个请求的情况下,云主机集群只有每秒处理一万个请求的能力是远远不够的。自动伸缩的目的,就是在应用负载降低时自动将多余的云主机从负载均衡上移除并销毁以节省成本,在应用负载升高时自动启动更多的云主机并加入负载均衡以应对压力。通过自动伸缩,用户自动地按照实际负载购买计算资源,既不存在处理能力不足的问题,也不存在浪费计算资源的问题。

  显而易见,自动伸缩要求云主机集群中的每一台云主机都能够稳定地提供一定的处理能力。当云主机数量增加时,集群处理能力随之增加;当云主机数量减少时,集群处理能力随之减少。集群处理能力与云主机数量之间的关系不一定是线性的,但必须是正相关的。在理想的情况下,这种关系应该是可预测的。假设我们有一个网络I/O密集型应用,每处理1万个请求会产生100MB的内网流量,但是对CPU、内存、存储的要求不高。当应用的负载为每秒1万个请求时,要求内网带宽大于100MB/s。在阿里云上应对这样的负载,要求在云主机集群中部署2台云主机。在青云上应对这样的负载,要求云主机集群中部署1台云主机。当应用的负载为每秒10万个请求时,要求内网吞吐量大于1,000MB/s。在阿里云应对这样的负载,需要在云主机集群中部署17台云主机。在青云上应对这样的负载,不管在云主机集群中部署多少台云主机都无能为力,因为需要的内网带宽超出了单个用户所能够使用的带宽上限。

  因此,在弹性计算这个场景中,用户需要了解的不是某个产品最高可以达到什么性能,而是最低可以达到什么性能。在云主机网络带宽测试中,阿里云两台云主机之间的网络带宽只有60MB/s,青云两台云主机之间的网络带宽达到115MB/s。看起来似乎青云的网络性能要好得多,但是阿里云的网络性能是不随着用户使用量的增加而发生恶化的,青云的网络性能则是随着用户使用量的增加而发生恶化的。在云主机存储带宽测试中,阿里云单台云主机的存储带宽只有400MB/s,青云单台云主机的存储带宽达到800MB/s。看起来似乎青云的存储性能要好得多,但是阿里云的存储性能是不随着用户使用量的增加而发生恶化的,青云的存储性能则是随着用户使用量的增加而发生恶化的。

  在云计算中,我们常常用坏邻居(noisy neighbours)效应来形容这种那个情形。一台云主机大量使用某种资源造成另一台云主机无法正常使用同种资源,属于坏邻居效应;一个用户大量使用某种资源造成另一个用户无法正常使用某种资源,也属于坏邻居效应。在针对阿里云的测试中,我们没有观察到的坏邻居效应。在针对青云的测试中,同一用户的多台云主机之间存在坏邻居效应,不同用户的云主机之间也存在坏邻居效应。在青云上,通过小规模测试即可在网络和存储两个方面观察到坏邻居效应。基于如上分析,青云虽然提供了自动伸缩的功能,但是其弹性计算能力并不能满足运营一个小规模(10台云主机以下)高网络I/O或者高存储I/O型应用的要求。

  基于同样的分析,我们在UCloud也观察到了如上所述的坏邻居效应。在云主机网络带宽测试中,可以观察到内网带宽存在一定程度的抖动,但是并未观察到明显的性能恶化。在云主机存储带宽测试中,则可以观察到存储带宽随着用户使用量的增加而不断发生恶化。根据作者的判断,UCloud所提供的自动伸缩功能,可以满足运营一个中等规模(10到20台云主机)高网络I/O型应用的要求,但是无法满足运营一个小规模(10台云主机以下)高存储I/O型应用的要求。

  不难看出,实现实用意义上的弹性计算要求公有云服务提供商具备两个技术条件。第一,通过细颗粒度的精准限流,保障任意计算资源(CPU、内存、网络、存储)的性能。阿里云的块存储已经具备了细颗粒度的精准限流,其I/O能力直接与块存储的容量挂钩,用户可以通过一个简单的公式计算出特定块存储的性能期望值。需要指出的是,阿里云仅对块存储进行了精准限流,但是未对网络I/O进行分级限流。在作者的测试中,最高配置的云主机和最低配置的云主机可以使用的网络带宽是相同的。因此,具备一定财务能力的用户依然可以在“合理使用”的原则下以很低的代价来探测阿里云的内网带宽上限。第二,通过储备大量的冗余资源,应对用户爆发性的资源需求。在这个方面,规模较大的公有云服务提供商比规模较小的公有云服务提供商具有明显的优势。在国内的公有云服务提供商中,只有阿里云具备了这个条件。

  阿里云给所有配置的云主机提供相同的网络带宽,并不符合“按需获取、按量计费”的理念。目前阿里云所提供的内网带宽可能可以满足中小型Web应用的需求,但是尚远远不能满足大型Web应用和科学计算应用的需求。作者曾经试图在阿里云上运行一些对网络I/O和磁盘I/O同时有较高需求的科学计算应用,但是由于网络I/O方面的限制未能取得预期的效果。作者注意到阿里云团队在2015年10月高调发布了新的100TB数据排序世界记录

  作者发现,万博体育亚洲官网同样是100TB数据排序,Spark团队使用了50TB内存,UCSD团队使用了45TB内存,阿里云使用了332TB内存。打个极度简化的比喻,Spark团队和UCSD团队需要5个手指头来做0到9这十个数字的排序,而阿里云团队需要33个手指头来做0到9这十个数字的排序。

  学习过算法的从业人员都知道,在内存富余的情况下进行数据排序,其算法复杂度远低于在内存不足的情况下进行数据排序。在内存不足的情况下,需要先将中间数据写入磁盘,再分批从磁盘读出进行排序操作。在100TB数据排序中,内存不足的情况产生100TB的网络I/O以及200TB的磁盘I/O(读和写操作都是200TB),内存富余的情况则产生100TB的网络I/O和100TB的磁盘I/O(读和写操作都是100TB)。在这种情况下,Spark团队单颗CPU核心平均每秒钟处理的数据量(以MB计算)是阿里云团队的1.72倍,UCSD团队单颗CPU核心平均每秒钟处理的数据量(以MB计算)是阿里云团队的1.91倍。我们也注意到阿里云团队所使用的处理器相对较老,其处理能力相对较低。就裸机单线程处理能力而言,Intel Xeon E5-2670 v2 @2.50GHz

  [16]的2.5倍,是Intel Xeon E5-2650 v2 @2.60GHz[17]的1.7倍。此外,我们也注意到EC2实例使用的是虚拟处理器核心,存在一定的虚拟化损失。基于如上两点,可以推测如果阿里云同样采用Intel Xeon E5-2670 v2 @2.50GHz处理器的话,则其单颗CPU核心平均每秒钟处理的数据量(以MB计算)表面上看来可以与Spark团队和UCSD团队所报告的成绩持平。问题在于,Spark团队和UCSD团队所处理的是一个比较复杂的场景(数据量是内存的2倍),其算法复杂度较高;而阿里云所处理的是一个比较简单的场景(内存是数据量的3.3倍),其算法复杂度较低。因此,阿里云所报告的成绩只是集群规模增长的自然结果,其系统和算法远远不如Spark团队和UCSD团队的系统和算法。(阿里云所处理的场景与Yahoo团队于2013年所处理的场景[19]

  阿里云所报告的100TB数据排序成绩,证明的是阿里云作为一家公司已经具备了管理和使用超大型集群的能力。这个能力与阿里云于2014年在VLDB上发布的关于伏羲的论文[20]

  所报告的能力是类似的。但是,这个能力与阿里云所提供的产品和服务的能力并不直接相关。譬如说,阿里云的ECS(云主机)服务所提供的计算、网络和存储能力,尚远远不足以满足运行这个100TB数据排序的要求。作者认为,阿里云尚需加强其ECS服务所提供的计算、网络和存储能力。什么时候阿里云的用户能够自地主在阿里云所提供的ECS服务上运行这个100TB数据排序并且达到Spark团队于2014年所取得的成绩,那么阿里云的ECS服务就线年的水平了。

  上图所示为阿里云华南1区到华北2区的测试结果,数据包经过11跳抵达目标云主机。在这个路由当中,有5跳(4~8)经过的设备使用公网IP地址,其余6跳经过的设备使用阿里云内网IP地址。值得说明的是,上图所示的4个公网IP全部属于阿里云(属于自治域AS37963),说明从阿里云华南1区到华北2区的整个数据链路层都在阿里云的掌控之下。

  上图所示为青云北京2区到广东1区的测试结果,数据包经过23跳抵达目标云主机。在这个路由当中,有16跳(3~18)经过公网,其余7跳在青云自己的内网。在整个数据链路上,没有任何一个公网IP属于青云。因此,青云不同区域间的互联互通,完全依赖于数据中心服务提供商之间的互联互通。从从这个测试结果来看,青云“1跳进入全球任何网络运营商的主干网”这个目标可能还需要很长时间方可达成。

  上图为UCloud广东B区到北京C区的测试结果,数据包经过19跳抵达目标云主机。在这个路由当中,有8跳(6~13)经过公网,其余11跳在UCloud自己的内网。在整个数据链路上,没有任何一个公网IP属于UCloud。因此,UCloud不同区域间的互联互通,也完全依赖于数据中心服务提供商之间的互联互通。

  从网络拓扑来看,国内互联网可以分为主干网(公网)、地区网(广域网)、主节点(城域网)几个层次。在计算系统可靠度的时候,又可以进一步将其简化成一个串行系统来处理。我们知道,串行系统的可靠度等于系统中各个组件的可靠度的乘积。串行系统中包含的组件越多,则整个系统的可靠性越低。假设一个串行系统中包含100个组件,每个组件的可靠度为0.999,则整个系统的可靠度为0.999

  =0.905。我们知道,中国ChinaNet骨干网的拓扑结构在逻辑上分为两层,即核心层和大区层。核心层由北京、上海、广州、沈阳、南京、武汉、成都、西安等8个城市的核心节点组成,其功能主要是提供与国际互联的接口以及大区之间互联的通路。全国31个省会城市按照行政区划,以上述8个核心节点为中心划分为8个大区网络。这8个大区网共同构成了大区层,大区之间通信必须经过核心层。

  基于这样一个极度简化的模型,云服务提供商某个区域所在的数据中心与核心层之间的串行系统的组件数量,约等于如上所述MTR测试结果中数据包经过公网的跳数除以二。以此估算,阿里云的串行系统组件数量为2,青云的串行系统组件数量为8,UCloud的串行系统组件数量为4。假设这个串行系统中每个组件的可靠度是相同的(实际上并不相同),则阿里云数据链路的可靠度大于UCloud,而UCloud数据链路的可靠度大于青云。

  根据Gartner的统计数据,在2006到2014年间,全球服务器硬件市场每年的出货量稳定地在10,000,000台上下波动。其中,亚太地区占比在1/4左右,也就是2,500,000台。中国境内服务器出货数量在亚太地区的占比不详,保守地按1/5计算也有500,000台。按照5年折旧周期进行估算,全国范围内现役的计算资源至少有2,500,000台物理服务器。(根据可靠的数据来源,仅阿里巴巴、百度、腾讯三家大型互联网公司所拥有的物理服务器总量就已经超过了1,000,000台。全国范围内现役的计算资源总量可能远大于2,500,000这个估值。)作为一家服务于“中国”的产业级别的公有云服务提供商,假设其业务成熟之后拥有全国计算资源的1%,就是25,000台物理服务器。再按1:4的虚拟化比例进行估算(这个虚拟化比例也是一个偏低的估值),则虚拟机的数量为100,000台左右。

  ,五年之后的公有云可能达到的规模只会比这个数字更大。基于这些估算,我们可以根据其规模将一家公有云创业企业的成长分为五个阶段:

  ,小于5,000台虚拟机。公司的终极目标相对模糊,在私有云解决方案提供商和公有云服务提供商之间摇摆不定。在战术层面,缺乏明确的技术路线图,产品形态相对原始并且没有明确的技术指标。

  ,小于10,000台虚拟机。公司基本上将其终极目标定位为公有云服务提供商。由于公有云和私有云之间的巨大差异,必然要放弃私有云解决方案服务提供商的身份。在战术层面,基本形成相对清晰的技术路线图,基础产品(云主机)基本定型,在宕机时间和产品性能方面均有明确的技术指标。在云主机的基础上,提供能够承担中低负载的负载均衡、数据库、缓存等等周边产品。

  ,小于50,000台虚拟机。基础产品(云主机)能够满足高性能计算的要求,同时发展出一系列模块化的周边产品。普通用户完全依靠云服务提供商所提供的不同模块即可自主创建大规模可伸缩型应用(无需云服务提供商进行干预)。

  ,小于100,000台虚拟机。在技术方面,资源利用率开始提高,规模效应开始出现。在市场方面,客户忠诚度开始提高,马太效应开始出现。这标志着公司在公有云领域已经获得了较有份量的市场份额,其产品和技术获得了一个或者多个细分市场的广泛认可。

  ,大于100,000台虚拟机。只有进入这一阶段,才能够认为一个服务提供商已经站稳了脚跟,可以把公有云当作一个产业来做了。至于最后能够做多大,一个好看国内的大环境,另外一个还得看公司自身的发展策略。

  根据本文的测试数据,作者认为国内公有云服务提供商中(仅考虑以设施服务IaaS部分)只有美团云尚处于原型阶段,盛大云处于成长阶段早期,青云和腾讯云处于成长阶段中期,UCloud处于成熟中晚期,只有阿里云已经进入产业阶段。由于作者缺乏金山云相关数据,在此不对金山云进行判断。从2016年9月和2016年3月的端口扫描结果差异来看,马太效应在国内公有云服务行业内是非常显著的。

  基于本文所述的网络规模探测数据,作者倾向于认为目前国内公有云市场所提供的云主机总量小于500,000台。考虑到公有云的早期用户大都是将云主机当作VPS来使用,并且偏向于使用配置较低的小型云主机实例,平均意义上的虚拟化比例可能远远高于本文前面提到的1:4。因此,作者偏向于认为目前国内公有云市场所提供的计算能力尚低于国内现有计算能力总量的2%。随着公有云服务的逐步成熟,企业采购计算资源时的偏好将逐渐从采购物理服务器或者使用数据中心托管服务过渡到使用公有云服务。未来五到十年里,各种运行在中小型数据中心内的负载还会稳步向大型公有云服务提供商迁移。在这种大趋势的影响下,公有云市场所提供的计算能力在全国计算能力总量中所占的比例也会稳步提高。

  [5]一书中指出的一个似乎自相矛盾的现象:蒸汽机效率方面的进步提高了煤的能源转换率,能源转换率的提高导致了能源价格降低,能源价格的降低又进一步导致了煤消费量的增加。这种现象称为杰文斯悖论,其核心思想是资源利用率的提高导致价格降低,最终会增加资源的使用量。在过去150年当中,杰文斯悖论在主要的工业原料、交通、能源、食品工业等多个领域都得到了实证。基于同样的原理,作者在这篇博客里面又进一步断言:“公共云计算服务的核心价值,是将服务器、存储、网络等等硬件设备从自行采购的固定资产变成了按量计费的公共资源。虚拟化技术提高了计算资源的利用率,导致了计算资源价格的降低,最终会增加计算资源的使用量。”。因此,作者在多篇文章[6,7,8,9]

  中反复指出,公有云市场不是一个短期市场,而是一个未来五到十年尚有充分增长空间的市场。目前国内的公有云市场依然处于早期阶段,所谓“随着国内云计算市场逐步成熟,公有云市场份额基本上大势已定”的论调未免过于目光短浅。在国内现有的几家公有云服务提供商中,除了阿里云可以算是已经站稳了脚跟之外,其他几个公有云服务提供商当中的任何一个都有可能突然倒塌,还可能有新的公有云服务提供商脱颖而出。作者倾向于认为,至少要等到2018年才有可能发生中国公有云市场份额“大势已定”的情况。这也是为何作者一直强调公有云服务是一片刚刚显现的蓝海。现在国内各个公有云服务提供商杀得你死我活,看起来似乎已经是一片血海。在作者看来,这些不过都是假象。如果一家公有云领域的创业企业没有这样的大局观,那么作者只有一个建议:“认怂服输,割肉止损,是为美德。”

  根据作者的观察,目前国内大部分公有云用户还是把云主机当作传统物理服务器的替代品来使用。这个观察在作者与各个公有云服务提供商负责人的访谈中也得到了验证。

  在传统的IT架构中,操作系统是安装在物理服务器上的。由于重新安装操作系统需要造成很长的宕机时间,出现软件层面故障时运维或者开发人员往往倾向于寻找问题来源并予以排除。很多时候,运维或者开发人员需要花费很长时间来寻找一些不易发觉的输入或者拼写错误(例如四个空格和一个tab)。在弹性计算这个场景中,操作系统是通过映像模板创建的,获得一台全新的包含正确配置的云主机只需要数分钟甚至更短的时间。在这个时间优势的基础上,云计算服务提供商终于可以直面长期以来被传统IT服务提供商所刻意回避的两个事实。第一个事实是组件的失效是必然的,是不可避免的;第二个事实是组件的失效是随机的,是不可预测的。用AWS首席技术长官Werner Vogels的原话来说,就是“任何组件可在任何时刻失效”(Everything fails, all the time.)。在负载均衡与自动伸缩的帮助下,一个集群中任意云主机均可以在任意时刻由于任意原因(底层硬件、网络环境、操作系统、应用软件)发生失效。在一台云主机发生失效时,自动伸缩功能自动地将其从负载均衡上移除并进行销毁,同时自动地启动一台新的云主机并加入负载均衡。因此,用户可以将云主机视为“即用即抛型”一次性资源。忽略云主机的失效,不仅不会牺牲应用服务质量,还可以将宝贵的资源集中投入到公司的关键业务。

  可惜的是,由于缺乏对弹性计算的理解,大量系统管理员延续了在使用物理服务器时期培养的习惯。他们在云主机等计算资源失效时惊慌失措,并且热衷于寻找所谓的“根本原因分析”(root cause analysis)。他们在潜意识里还是将基础设施视为公司的资产,试图去了解和掌握云主机之下每一个层面的信息。他们没有意识到在弹性计算这个场景里这些努力不仅没有必要而且会阻碍整个公司技术进步。解决这个问题,需要所有的公有云服务提供商持之以恒地对用户进行教育。用户的认知水平提高了,也会进一步促进公有云市场的发展。

  除了对用户进行教育之外,公有云服务提供商也需要加强对员工的教育。有些一线研发人员虽然是为公有云服务提供商工作,但是对弹性计算也缺乏理解。2016年春节联欢晚会期间,新浪微博成功地使用阿里云承担了部分高峰负载。这本来是一个值得大书特书的成功案例,但是多位阿里云团队成员通过微博公开指责新浪微博“直到最后一刻才开通所需的计算资源”之举过于小气。虽然这样的指责近乎调侃性质,也不能不说是一个在KPI重压之下令人沮丧的失败案例。

  在“用户体验”这个小节的网络测试部分,作者仅报告了针对阿里云的1433、3306和11211端口扫描情况。主要的考虑在于小型公有云服务提供商更加需要保护,因此不宜对小型公有云服务提供商进行同类测试;次要的考虑在于公有云服务提供商无法独立承担安全重任,因此需要向从业人员披露公有云服务中存在的安全隐患。需要说明的是,作者在阿里云内网和外网获得的端口扫描结果,并非阿里云独有的现象。任何一个刚刚学会运行bash脚本的从业人员,都可以通过类似方法在AWS所在的IP段扫描到类似的结果。阿里云和AWS的不同之处,在于阿里云教育客户“选择云盾,让您的业务安全性如同阿里巴巴一般”,AWS则教育客户“安全共担”(shared responsibility)模型。云盾的产品介绍页面宣称“每天防御超过958万次暴力破解攻击”,但是作者基于社会工程数据库的自动化登录测试也获得了部分成功。这样的结果,可以有三个解释:

  少部分被成功登录的云主机虽然使用了云盾服务但是其密码设置过于薄弱,因此在云盾未被激活之前就已经被成功登录;

  类似于Memcached这样免登录的服务,云盾目前是完全无能为力的。在阿里云内网,作者还探测到大量其他免登录或者仅使用弱口令保护的网络服务,例如RabbitMQ。

  因此,不管用户是否使用服务提供商所提供的云安全服务,均应对客户进行“安全共担”的教育,引导客户采取必要的措施保护其所使用的计算资源。遗憾的是,阿里云作为国内规模最大的公有云服务提供商,向用户传达了完全错误的信息。作者建议阿里云安全团队针对阿里云内网进行常规性的分布式端口扫描,充分了解安全隐患的严重程度,并在此基础上向阿里云的用户提出针对性的改进建议。

  作者也注意到阿里云于2014年7月获得了首批数据中心联盟授予的“可信云服务认证”。公开的资料表明,可信云服务认证由数据中心联盟组织中国信息通信研究院测试评估,是我国唯一针对云服务可信性的权威认证体系。(

  据其官方网站介绍,数据中心联盟是工业和信息化部通信发展司指导下成立、由中国通信标准化协会管理的非营利性第三方组织。

  )作者对阿里云进行的测试表明,这个“可信云服务认证”如同虚设,无法保护公有云用户免于弱口令暴力破解等入门级网络攻击威胁。更为严重的是,通过数据中心联盟这样一个半官方机构所谓的“权威认证体系”给不安全的公有云服务背书,引导安全观念原本就极为淡薄的用户更加忽视公有云服务中的安全问题,给互联网信息安全带来了极大的安全隐患。

  对公有云服务在安全方面的顾虑,是阻止金融行业等极度保守型客户使用公有云服务的重要原因。例如,招商银行信息技术部副总经理、数据中心总经理高旭磊[23]

  明确地认为“金融云在可靠和可用性方面远高于普通商业云”。万博manbetx手机客户端高旭磊在文章中指出:“目前公有云的服务对象仍然是以互联网企业为主,但是运行关键业务(Mission Critical)的企业非常少,服务质量和数据安全是这些企业踌躇不前的主要原因。仅2014年,大型的公有云就出现了多起严重的宕机影响在线服务的事件,其中亚马逊AWS CloudFront DNS服务器宕机超过2小时,导致一些网站和云服务的内容传输网络全部下线;Microsoft Azure公有云出现了4次严重宕机事件,累计时长超过20小时,导致大量用户无法使用。”尽管高旭磊的论据和论点之间缺乏必要的逻辑联系,又将可用性、可靠性、安全性等多个概念混为一谈,他的文章清楚地反映出金融行业客户对公有云服务在安全方面的不信任心态。作者注意到阿里巴巴旗下蚂蚁金服集团于2015年10月推出了针对金融行业客户的蚂蚁金融云,并将安全作为其卖点之一。蚂蚁金融云宣称“基于阿里云计算强大的基础资源”,但是在阿里云内部称为专有云服务(Dedicated Cloud Servicve)

  [24],并不与阿里云的公有云服务使用同一套基础设施。换句话说,蚂蚁金服云直接否定了阿里云的公有云服务在安全方面的能力。其他

  众所周知,国内的互联网创业环境并不单纯。创业公司夸大创始人资历、融资额度、经营规模、性能参数等等数据,在整个大环境中几乎是家常便饭。在国内的公有云服务领域,类似的现象同样存在并且非常严重,主要集中在服务规模和产品性能两个方面。在撰写本报告的过程中,作者系统地阅读了过去一年中不同公有云服务提供商通过不同渠道发布的各种官方和非官方的规模和性能数据。在服务规模方面,大部分伪造数据者对国内信息行业的总体规模缺乏基本了解。在产品性能方面,大部分性能报告都巧妙地利用了AWS在10年前发布的“标准型”EBS卷,通过田忌赛马的技巧将产品层面的对比降级为SSD硬盘与机械硬盘的对比,进而得出超越AWS的结论。值得注意的是,这样的现象同样不仅仅出现在中小型公有云服务提供商,阿里云这样的大型公有云服务提供商也不能免俗。阿里云级别很高的资深员工也在微博上公开传播第三方伪造的性能测试数据,但是在作者提醒后很快删除类似言论。

  除此以外,作者认为国内大部分公有云服务提供商在做事上是还是踏实靠谱的。在与作者的电话访谈中,各位公有云服务提供商的负责人不仅坦诚地阐述创业当中的决策过程,也坦诚地提出对行业发展的观点和疑问。尤其是七牛云的许式伟和UCloud的季昕华,与他们的访谈给作者留下了非常深刻的印象。他们所提供的产品和服务或许尚不完美,他们所报告的数据或许略有夸大,但是作者深深地感觉到他们在做事上是认真的,他们对客户是诚恳的。唯一的例外,却是青云。青云在国内云计算行业的名气很大,是一家有理想有情怀的创业公司。但是与青云CEO黄允松的访谈和对青云进行测试的结果都令作者对青云大失所望。作为一家创业企业,有理想有情怀不是坏事。但是,如果一昧沉溺在理想和情怀当中不能自拔,甚至是将理想和情怀当成产品和服务来卖,恐怕对创业企业的发展并无益处。

  作者蒋清野是悉尼大学信息技术学院的博士研究生,同时也是AWS悉尼技术支持中心的员工。他于1999年获得清华大学学士学位(土木工程),2000年获得伊利诺伊大学香槟分校硕士学位(土木工程),2015年获得悉尼大学硕士学位(计算机科学)。他的研究兴趣包括分布式与高性能计算、开源社区的社会学行为、信息技术领域的微观经济学分析。他是美国电子电气工程师学会(IEEE)的高级会员。

  在接受InfoQ方面的邀请准备规划这篇报告的时候,作者的内心是兴奋的。在获得所有测试数据准备撰写这篇报告的时候,作者的内心是矛盾的。一方面,作为并行与分布式计算领域的学生,作者希望为业界提供一些有用的信息和观点;另一方面,作为公有云服务领域的从业人员,作者深知发表一份涉及多家友商的报告会带来诸多争议。在InfoQ方面的鼓励下,作者选择以真实的身份发布这些的数据和观点,希望能够对国内云计算从业人员有所帮助。

阅读排行榜

编辑推荐

本站二维码

关注微信公众号,了解最新精彩内容