无论是混合sdd和sata的节点,还是全闪存是什么意思节点,都支持数据压缩功能

<div id="click_content_aid_
<div id="favrite_content_aid_
最终更新:三星TLC闪存840 SSD盖棺论定,可靠性不是问题
最终更新:三星TLC闪存840 SSD盖棺论定,可靠性不是问题
11:07&&|&&作者:
&&|&&关键字:,,,,
  有关TLC可靠性的问题也一直争议不休,短暂的理论测试和分析依然打消不了用户的怀疑,准备进行一个长期的持续读写测试,用拉力赛的方式来考验三星840 250GB SSD的寿命。
  6月21日最终更新:从上次更新TLC闪存的840 250GB的持续写入情况到现在已经过去三个星期了,认为这场持续两个半月的更新可以当作最终篇了,虽然第二块SSD还能工作,但是错误越来越多,现在可以盖棺论定了。
  首先他们承认了之前所用的计算TLC闪存寿命的方式不靠谱,因为在SSD上存放静态数据的前提就是错误假设了。他们在250GB的SSD上放置了160GB的静态数据,用这个数据的MD5来检验SSD什么时候出错。不过SSD写入数据的方式跟HDD不一样,看起来放置的静态数据是没有变化的,但是出于的考虑会把数据不断移来移去(详细的SSD读写原理可以参考我们的文章:),所以他们放置的静态数据在后台其实已经变动了很多次(本文评论中有个读者还是说对了,静态数据验证并不靠谱)。
  不过也表示这个错误对他们计算SSD使用寿命的并没有负面影响,SSD是写满数据还是空盘对SSD寿命计算并没有不同。(因为他们计算的实际上是数据写入量,跟剩余空间有多少无关)
  现在再来说两个840 SSD的情况。
  第一个840 SSD在5月22日重新分配扇区(re-allocated
sector),此时P/E循环次数为2945次,数据写入量为707TiB,相比官方标准的1000次P/E还是让人印象深刻的。
  重分配扇区意味着有扇区工作不正常,这是SSD应该极力避免的情况,出现这个情况之后会启用SSD预留的空间做填补。当然,这些情况还算是正常的,此时并没有出现不可恢复的错误。
  第一个不可恢复错误出现于5月26日,P/E循环次数为3187次,写入数据量为764TiB。由于这是第一次出现数据丢失,即使只有512KiB,但是也可以认为SSD寿命终结了。
  这块SSD一直运行到6月7日,3706次P/E循环,写入数据量888TiB,之后才算真正的完全死亡。
  第二块SSD出现重分配扇区的情况是在5月28日,P/E循环3152次,写入数据量745TiB。首个不可恢复错误发生于5月30日,此时P/E循环3247次,写入数据量768TiB。目前它还没有完全挂掉,P/E循环已经超过4000次,不过已经出现了58000个不可恢复错误,称其是临床死亡。
  <以出现首个不可恢复错误为SSD挂掉的标志。第一个840 SSD此时写入了764TiB的数据,第二个840 SSD写入了768TiB的数据,这两个SSD的写入数据量几乎是一样的,说明三星840
SSD使用寿命是个常量。当然,也很小心地称这些数据只代表这两个SSD,不一定能代表其他840 SSD。
  最后就是根据写入数据量来推算使用寿命了。还是以每天10GiB的写入量来算,764TiB的数据寿命相当于214年,当然这是理想情况,还得看WAF率。他们写入的数据是连续的,所以WAF只有1.04-1.05。不考虑数据压缩的情况,大部分消费者正常使用时WAF差不多是3.0,综合这些因素之后764TiB的数据寿命也意味着75年的使用时间,就算把每天的写入数据量提高到30GiB,那么也有24年的正常使用时间。就算存在极端使用情况,10年的正常使用时间对SSD来说还是很高的水平了。
  总之,消费者无需过于担心TLC闪存的使用寿命,因为TLC的数据寿命平均有75年左右,这不是说TLC闪存实际上可以运行75年,但是有限的P/E循环次数并不是SSD寿命的瓶颈。
  表示通过这次测试他们要改变几个月前对TLC闪存作出的结论,TLC闪存的三星840 SSD可靠性上与闪存的SSD是一样的,闪存的类型不应该是选择SSD的原因。
  编者注:持续两个多月的更新也要终结了,虽然用数据写入量的方式验证了TLC闪存的使用寿命依然很长,消费者无需担心,不过我相信这个事不会终结,TLC够好,但是MLC理论上更好,除非TLC闪存能够在价格上有所突破,否则的话大部分消费者还是会首选MLC闪存的SSD固态硬盘。&  5月30日更新:的TLC闪存840
250GB固态硬盘的长期写入已经进入了第七次更新(实际上第八周了),自从5月16日之后已经有两周没有更新了,之所以有这么长的间隔,是因为840 SSD终于出问题了。(终于,我为什么要说终于)
  上周开始就已经开始有扇区错误了,5月22日写入2945次之后发现了两个扇区挂了,之后就有更多的扇区错误,直到5月29日还在加速出现错误。
  就算来2945次P/E次数来算,840 SSD的写入寿命也达到了官方标称的三倍左右。
5月22日,在写入2945次之后SMART开始出现报错
5月26日,3187次擦写之后开始出现不可恢复错误
  之前出现的错误都是扇区错误,还可以通过屏蔽的方式让SSD继续运行,不过5月26日开始出现不可恢复错误。在写入3187次之后,有一个512KB的区块已经不能再读数据,意味着其中的数据会丢失。他们并没有找出这个区块在哪,因为用于对比错误的MD5依然是0。
  出现这样的重要错误意味着SSD已经死亡,因为其中数据已经不可读,而且无法恢复,这对SSD来说是致命的。
5月29日最新情况(点击放大)
  现在来看一下整个测试中的综合情况吧。三星840
250GB固态硬盘在2945次P/E之后出现扇区错误,3187次P/E循环之后出现不可恢复错误,总共写入了726000 GiB (相当于779538
GB)数据,还是按照他们的每天10GB数据写入来算,这相当于正常使用了198年。
  当然,他们的这个算法是很理想的,这里没有考虑到写入放大(WAF)的情况,对SSD有所了解的都知道SSD的数据写入是以“Block区块”为单位的,哪怕你写入的数据只有4KB或者8KB也是如此,这就是写入放大。
  简而言之,<的测试中将写入放大算作1,实际写入大约是理想情况的三倍,所以他们的198年正常使用大约相当于真实情况的66年,这个使用期限还是很长的。
  由于出现了致命错误,这个SSD已经相当于死亡,不过他们的测试还会继续,看看最终能持续多长时间,只不过他们的预期值也不高,因为错误出现的速度还在加快。
对照组的情况
  之前说过他们总共测试了两组SSD,另一个250GB的840用作对照测试,进度比这个有所落后,在写入3152次之后发现了第一个扇区移动,意味着扇区也开始出错了,不过现在还没有发现不可恢复的错误。
&  5月17日更新:TLC闪存的三星840
250GB固态硬盘的长期折磨试验已经进入第六周了,显示的P/E擦写次数已经达到了2500次,这是官方标称的1000次P/E寿命的2.5倍了,目前S.M.A.R.T信息中的健康度依然维持在1%的水平,不过Hard
Disk Sentinel(硬盘哨兵)软件依然没有检测到读写错误,MD5值也没发现任何错误。
&  5月9日更新:目前的三星840 250GB SSD的长期测试已经进入到第五周了,S.M.A.R.T信息显示P/E擦写次数已经达到2000次,目前Program编程失败及Erase擦写失败次数依然是0。
  目前的数据写入量是512TiB(约为559TB,原文都写成GiB及GB了),折算起来相当于136年的使用时间了。
&  5月2日更新:三星840 &250GB SSD的长期折磨现在已经进行到第四周了,上周开始官方宣称的1000次P/E擦写次数已经耗尽了,不过使用情况还不错。目前通过Anvil软件写入的数据量是409TB,S.M.A.R.T显示的P/E次数已经达到1700次,超过了官方标称的70%。  好消息是目前840看起来还没什么意外发生,长期测试依然在继续,小编之前还预测能写到2000次,看来还是有点保守了,只不过未来的日子可能就有点提心吊胆了。  4月25日更新:的三星840 250GB SSD的长期折磨已经进行到第三周了,如之前所预测的那样,在写入240TB的数据之后,840使用的TLC闪存1000次P/E循环已经耗尽了,理论上840应该接近寿命终点了,不过现在还在使用中,剩下的就是观察TLC在1000次P/E循环之后还能服役多久。  到现在为止,通过Anvil软件已经写入了307TB的数据,通过S.M.A.R.T信息看到SSD已经有1276次P/E擦写次数,这意味着寿命已经超出了官方标准的12.8%了,WL指数在1000次P/E循环之后并没有下降到0,而是停留在1上。另外,S.M.A.R.T目前也没有显示出任何错误,MD5验证数据也是完好的。  还是以每天10GB的写入量来算,307TB的写入量相当于正常使用86年,就算考虑到很高的写入放大率,消费者依然不需要担忧三星840 SSD的寿命。  超过了官方宣称的1000次P/E之后,剩下的日子就会更让人兴奋了,这就好比医生预测病人只能活2年了,结果病人2年之后还活得好好的,不过之后的日子就不那么确定了,这种心情跟现在的SSD可靠性测试差不多。  另外,说读者建议他们使用另外的可靠性测试,目前他们还不会终止这个测试,但是未来可能考虑别的测试方法。  4月17日更新:第二周已经过去了,也公布了截至4月17日的三星840 SSD的使用情况,前情可以看下面的文章,这里只说第二周的变化。  WLI指数从第一周的59下降到了16,这么算起来不到下一个周期就能把整个SSD的擦写次数耗尽。  截至目前为止已经写入了203TB的数据,根据S.M.A.R.T信息可以看到已经耗尽了846次P/E擦写次数,这么算起来三星840的写入量是256GB*846=211.5TB,写入放大因素只有1.04,这是相当低的水平,不过这跟他们主要是连续写入有关。  假如将写入放大算作3,那么211.5TB的写入量实际上相当于真实情况的70TB写入量,以每天10GB的写入量来算,相当于使用了7168天,也就是19.6年的使用年限。如果以1.04的写入放大来算这可以使用60年。&
  4月11日更新:今天有关SSD的新闻有点小爆发啊,除了前面的美光M500的加密性能测试、OCZ下月发布Vertex
5之外还有一个值得关注。三星840是世界首款使用TLC闪存的SSD,有关TLC可靠性的问题也一直争议不休,这事还真没法下定论。
  目前的TLC闪存擦写次数普遍只有1000次,理论上看250GB的TLC闪存的总的数据寿命只有250xTB左右,这点数据看起来并不多,不过实际情况并不是这样,厂商会考虑到写入放大、磨损平衡之类的因素,TLC闪存的寿命并不是想象中的那么差。
  针对TLC闪存的可靠性,Anandtech此前以S.M.A.R.T信息中的WLC指数做了一番测试,详细情况可以参考。只不过他们的测试只是一个短暂的测试,准备进行一个长期的持续读写测试,用拉力赛的方式来考验三星840
250GB SSD的寿命。
  测试的方法跟Anandtech的差不多,用Hard Disk Sentinel软件监控SSD的S.M.A.R.T信息,也就是WLC指数,这个数从100开始倒数,降低到0就意味着TLC闪存的全部1000次擦写次数就用完了(实际上这不一定意味着SSD就挂了)。
  他们总共对比了两套平台,使用的都是250GB型号,每个SSD有121GB的使用空间,这个空间是不会变动的,每个SSD也会至少留出12GB的剩余空间,这都是为了模拟正常使用情况。
  会以30秒一个周期的频率持续向SSD写入数据,如何判断SSD出问题呢?每经过50次循环,他们会用Anvil's
Utilities软件对比一个永久存在的1GB大小的文件的MD5值,如果每次对比的MD5结果一样就认定数据安全,如果哪一天得出的结果不一样了,那么就认定数据出错,这个SSD也被认为有问题了。
  称会每两周报告一次测试的结果,今天首先公布了第一周(实际上是8天了)的测试结果。
  目前为止已经写入了97.02TB的数据,以每天10GB的写入量来算,这个数据量相当于正常使用了27年了。
  目前的健康指数是59,意味着还有590次的擦写次数可用,已经消耗掉了410次,这么算起来在这种高强度的BT测试中需要三周左右的时间即可消耗掉全部的擦写次数。
  目前来看三星的WL磨损平衡算法表现不错,因为有121GB的静态数据下,整个SSD的空间实际上就只有256-121=135GB(这里的256是指的840中240GB型号的全部容量)了,相当于容量减半,对SSD来说就是可用寿命更少了。
  目前来看三星的TLC闪存颗粒经过了两家媒体的折磨测试都表现的还不错,等着看两周后公布最终的测试结果吧。
  只不过,数据测出来的可靠性再强大也敌不过用户的不放心,康宁大猩猩玻璃怎么抗刮擦也会有人贴膜,苹果的手机设计的再轻薄也会有人戴套。
关注微信号expkf01,第一时间获知精彩活动和原创科技资讯。
第一时间获知
精彩活动和原创科技资讯
微信号expkf01
本文读者还喜欢
(你可匿名或登录后发表评论。没有帐号可,或使用和直接登录)
非著名编辑,自认为是个理性、有内涵的观察者,实则腹黑、心不黑,坚信阳光普照大地,只待涤荡眼前的黑暗。
扫一扫右边的二维码
关注超能网微信账号
讯景RX480 4G显卡1399元,8G版1699元
奥睿科USB多口充电器,28元/个
双十一都有些什么值得买买买?
讯景RX 480 4G显卡1449元~据群众举报,经缜密侦查,共查获嫌疑人数百名。
女子在郑州高速上被踹下车,哭诉一年被打二十次。
声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
  内容够全吧?老规矩,先奉上企事录的二维码:
  如果严格按照当前的定义:超融合系统天然具备虚拟化的基因,继承虚拟化应用理所当然;出于性能考虑,数据库应用直接运行在物理机上会更好些,部署于融合系统较为合理。
  FusionCube超融合基础设施家族两大成员的典型配置:FusionCube 9000主打数据库场景,因此突出IOPS(OLTP)和吞吐量(OLAP),但也可用于高端虚拟化场景;FusionCube 6000则面向虚拟化和云平台,突出虚拟机和云桌面数量
  这样看来,华为FusionCube 9000超融合基础设施适用于数据库或虚拟化(包括桌面云)场景,是不是就比较“尴尬”了?
  尺度显空间:机柜、机箱和机框
  一般说来,融合系统通常是Rack(机柜)级的,而超融合系统通常是Box(机箱)级的。FusionCube 9000则是Chassis(机框)级的,介于二者之间。
  以机柜为单位交付的融合系统,以左侧的FlexPod为例,计算(UCS刀片服务器)、网络(Nexus交换机和UCS Fabric Interconnect)、存储(NetApp FAS)分明
  原因很简单:融合系统计算用刀片式服务器,存储用外置磁盘阵列(SAN存储系统),谁也装不下谁,能放下它们(还有交换机),必须得是机柜级别,包括小型的半柜配置。何况,有些高端存储系统,本身就可以扩展到多个机柜。
  我更愿意称之为“半”或“泛”超融合系统(超融合这档事还真的有点像“拌饭”)的Oracle Exadata一体机,没有使用集中式的SAN存储系统,但计算节点和存储节点都采用机架式服务器,也必须以机柜的形式交付,包括整柜、半柜、四分之一和八分之一柜。
  Exadata X3-2的四分之一柜(左)和八分之一柜(右)示意图,可以看到后者只启用了一半的硬件资源,扩展为前者时省去了实际添加硬件资源的过程
  Exadata的四分之一和八分之一柜硬件构成基本相同,主要是火力全开和半开的区别。以全双路的最新机型Exadata X6-2为例,最小配置也需要2台1U的数据库服务器(计算节点)和3台2U的存储服务器,这就已经8U,再加上2台36端口QDR(40Gb/s)InfiniBand交换机和1台管理交换机,超过10U妥妥的。
  华为FusionServer E9000刀片式服务器后端从外向内依次是6个供电模块(PSU)、14个(80mm)风扇模块、2个管理模块和4个交换/直通模块
  我们知道,8~10U规格的区间,足够刀片式服务器容纳10~15个双路计算节点(刀片)。也就是说,论计算密度,可以达到Exadata最小配置的2~3倍。
  除了高计算密度,刀片式服务器还实现了供电(PSU)、散热(风扇)的融合,以及统一管理,具有更高的效率。
  集成的网络将计算和存储硬件(如JBOD)互连为一体,而这些IT资源要实现真正的融合,需要各个部分的虚拟化,属于现在常说的软件定义(Software Defined)的范畴。
  建立在虚拟化层上的服务器虚拟化和网络虚拟化
  然而,除了整合供电与散热的收益,刀片式服务器的高计算密度,很大程度上是以牺牲存储占用的空间为代价换来的――整合分散在各节点中的存储资源需要很强的软件能力,交给外置的SAN存储多省心。
  所以,基于分布式存储的Exadata,要用2U机架式服务器作为存储节点。
  那么,FusionCube 9000基于FusionServer E9000融合架构刀片服务器干同样的事,岂不是“螺狮壳里做道场”?
  密度与裸机:数据库的简单数学题
  面向数据库场景的FusionCube 9000就像刀片版的Exadata,但支持更多的数据库选项。
  不能说其硬件平台FusionServer E9000刀片服务器有什么“黑科技”――SSD助力的软件定义存储是刀片+SAN组合的(常规)融合系统所不具备的,可是Exadata并不缺。
  或曰,FusionCube 9000要突出全面基础上的“错位”优势?
  FusionCube从2012年华为云计算大会(HCC)上发布时,即能同时支持数据库和虚拟化场景。除了Exadata的Oracle (RAC),FusionCube 9000还支持DB2、SAP HANA/Sybase IQ、SQL Server和国内的GBase、达梦等数据库。
  粗俗点说,数据库场景要求最好是裸机(物理机)环境。比Exadata支持的数据库种类多,绝对不能算是黑科技,理论上只要不是数据库厂商出品的一体机,其他融合系统应该也可以做到。
  FusionStorage分布式存储是FusionCube超融合系统的基石
  与同样基于刀片的其他融合系统相比,打着“超融合”标签的FusionCube 9000不需要SAN,这既是优势,也是挑战。
  物理机(计算)+分布式(存储)还能不能算超融合后面会有讨论,仅就可行性而言,一方面要专门拿出至少3个节点做存储,以保证基本的HA(High Availability,高可用);另一方面物理机的颗粒度比虚拟机(VM)粗,节点已经是最小单元。
  一句话:用分布式存储还想支持物理机,必须要有足够的节点。回过头来再看看Exadata的最小配置,除了3个存储节点,计算节点和网络(交换机)也都是两套。
  Exadata将四分之一柜(Qtr Rack)列为初始配置,因为八分之一柜的硬件规模其实是一样的;还可以清楚的看到,数据库服务器为1U,存储服务器为2U
  换句话说,如果是台2U4节点服务器,一个最小配置都扛不起来,也只能去玩虚拟化了。
  存储亦计算:FusionCube 9000与全闪存
  FusionServer E9000(原Tecal E9000)在12U机架空间内可配置8个横插的全宽计算节点或16个半宽计算节点,保证FusionCube 9000能有足够的节点支持数据库应用,虚拟化应用自然更不在话下。
  配备8个半宽双路至强E5节点和2个全宽四路至强E7节点的FusionServer E9000融合架构刀片服务器。E9000的前插槽位自上至下分为四个分区,同一个分区内不能混插半宽计算节点和全宽计算节点
  半宽节点(CH121 V3)支持双路英特尔至强E5-2600 (v3)系列CPU,24个DIMM插槽,比Exadata的双路数据库节点密度高一倍――这也是刀片的本分,变化较多的是全宽节点。
  FusionServer CH121 V3半宽双路E5计算节点(上)和CH242 V3全宽四路E7计算节点
  FusionCube 9000常用的全宽节点有三种:计算、计算存储、计算I/O扩展。全宽计算节点(CH242 V3)采用四路至强E7 (v2/v3)处理器,而Exadata除了两路,就是八路至强E7了(如X6-8),跨度很大。
  在多种类型节点和模块的支持下,FusionCube 9000的任务适应性很强
  计算存储(CH222 V3)和计算I/O扩展(CH220 V3),于FusionCube 9000而言,主要是为FusionStorage或者虚拟化(计算与存储“超融合”)场景准备的。
  FusionStorage是华为的软件定义存储(Software Defined Storage,SDS)产品,数据均匀的分布在多台x86服务器的硬盘或SSD上,乃FusionCube必不可少的组件,可以独立存储节点(单纯的分布式存储)或计算与存储(VM+分布式存储)超融合节点的形式存在,下篇文章会有详细介绍。
  华为ES3000 V2 PCIe SSD(闪存卡)有全高半长和半高半长两种规格,可见板上用于提供掉电保护的耐高温铝电解电容
  CH222 V3的“存储”主要指硬盘,支持15个2.5英寸SSD、SAS或SATA硬盘,还有1个全高半长(FHHL)的PCIe x16标准卡位,留给华为ES3000系列PCIe SSD或其他厂商的类似产品,作为FusionStorage的(读)Cache/(写)缓存使用。
  FusionServer CH222 V3全宽存储扩展节点左侧的15个2.5英寸盘位为3&5布局,可以拉出来维护
  CH220 V3的“I/O扩展”支持扩展6个PCIe 3.0 x16标准卡,可以配置为2个全高全长(FHFL)双槽位组合,或者1个FHFL双槽位+4个FHHL单槽位。
  全高全长双槽位显然是留给(GP)GPU的,VDI(Virtual Desktop Infrastructure,虚拟桌面基础架构)或HPC(High Performance Computing,高性能计算)用得着。如果配置为6个FHHL单槽位,插满PCIe SSD,就是FusionStorage的全闪存节点了。
  CH220 V3全宽I/O扩展节点前视图,左侧挡板覆盖的区域可安装6个全高半长的PCIe SSD,右侧靠前的处理器(CPU1)采用低矮的散热片,尽量避免遮挡CPU2的散热片
  传统插卡式(Add-in Card,AIC)PCIe SSD的问题是不便维护,于是SFF(Small Form Factor,小型化)委员会出台了现在被称为U.2的SFF-8639连接器规范,通俗的说,就是在SAS/SATA连接器上增加PCI Express(即PCIe或PCI-E)x4的相关引脚,从而使PCIe SSD也能像硬盘一样从前端维护(方便插拔)。
  华为最新推出的全宽存储扩展计算节点CH225 V3,采用英特尔新一代的至强E5-2600 v4系列处理器,前面板设有12个支持U.2的2.5英寸盘位,用于安装如华为ESP V3等NVMe PCIe SSD,还有2个2.5英寸SAS/SATA盘位留着安装操作系统。
  FusionServer CH225 V3全闪存节点具有14个2.5英寸盘位,其中12个为U.2接口,左侧还有2个SAS/SATA接口
  CH225 V3支持NVMe PCIe SSD的预约热插拔(不能暴力热插拔),在PCIe SSD维护的便利性上明显优于临时“代班”为全闪存节点使用的CH220 V3,后者从此可以专门用于其他I/O设备(如GPU或其他协处理器)的扩展。
  华为ES3600 V3系列NVMe PCIe SSD有半高半长卡(ES3600C V3)和2.5英寸U.2(ES3600P V3)两种形态,均为PCIe 3.0 x4
  如果不考虑作为管理节点使用的CH121,单独运行FusionStorage的硬盘节点(CH222)所需计算资源最少,2个至强E5-2620级别的处理器即可满足需求。
  全闪存节点和计算存储一体(VM+FusionStorage)的虚拟化节点,因为增加的存储(闪存)和计算(VM)处理需求,计算资源配置都有明显提高。以FusionCube 9000的典型配置为例:
硬盘存储节点:配备2 & E5-核12线程,2.4/3.2GHz)、64GB内存、12+ SAS硬盘和1个SSD的CH222 V3;
全闪存节点:配备2 & E5-核20线程,2.6/3.3GHz)、160GB内存、6个PCIe SSD的CH220 V3。
FusionCube 9000不同类型节点的典型配置规格
  鉴于CH220 V3也主要被用于扩充存储(PCIe SSD构成全闪存),可以看出FusionCube 9000中用于安装FusionStorage的节点,不论配置为纯存储还是计算存储融合(还运行用户VM,即虚拟化场景),都是全宽的计算存储节点。
  全宽很好理解――要有足够的空间容纳存储硬件(SSD/硬盘),计算能力则首先是为存储服务的,因为软件定义存储的本质就是用计算资源(CPU+内存)帮助实现存储功能。
  基于硬盘的FusionStorage节点对计算资源的要求最低,当换成全闪存配置后,所需的计算资源甚至会比基于硬盘的计算存储融合节点还高。
  软件定义存储的存储性能,与为其配置的计算资源,有着很直接的关系――因为软件需要足够的计算能力驱动。
  上海大地财险多资源池数据库一体机采用基于CH220的全闪存节点作为高性能资源池
  Oracle在2015年1月下旬正式发布的Exadata X5-2中,加入了全闪存的EF(Extreme Flash)存储服务器选项,但在堪称Exadata标志性的InfiniBand(IB)方面,直到最新的Exadata X6(-2/-8)一代,仍为40Gb/s的QDR(Quad Data Rate),而FusionCube 9000早已支持56Gb/s的FDR(Fourteen Data Rate)。
  不过,Exadata还有一项至今不传外人的独门秘技――Smart Scan,可以把简单的查询工作卸载到存储服务器上处理,在适用的场景下可以减少数据传输量。上回书已经提过,此处不再重复。
  如果FusionCube 9000能在对比测试中压倒Exadata,应该是硬件和FusionStorage的功劳。
  水乳且交融:轮廓愈发模糊的超融合?
  FusionCube 9000的整体架构介绍的差不多了,现在回来解决一下前面提出的问题:类似“FusionCube数据库超融合基础设施”这样的叫法,对不对?更直接点说,FusionCube 9000究竟是不是超融合?
  若是严格按照定义,物理机(计算)+分布式(存储)确实不能算超融合。
  譬如Exadata,一直被列为集成系统(IDC)或集成堆栈系统(Gartner),非要跟超融合系统扯上关系,“半”啊“泛”啊什么的仍然不能少。
  FusionCube 9000支持物理部署、物理/虚拟化混合部署、虚拟化部署,FusionCube 6000则专攻后者
  将FusionCube 9000称为超融合系统或超融合基础设施,则没有任何问题。分三种情况讨论:
FusionCube 9000只运行虚拟化应用,每个节点都是计算(VM)与存储(FusionStorage)一体的,那必须是超融合系统;
(一台)FusionCube 9000混合运行虚拟化和数据库(物理机)应用,也得算超融合系统――总不能说它就变成了“半超融合系统”;
只运行数据库应用的FusionCube 9000……在一个机箱(Chassis)里面还是计算与存储充分融合的?
  厦门警务云混合一体机采用物理机和虚拟机混合部署
  看看,厘清概念和生搬硬套之间有个度,不好把握。可资参考的是,成功的把超融合做成一种商业模式的Nutanix,6月下旬在其年度大会上也松了口,宣布推出支持在裸机上运行数据库应用的块存储服务,不再受虚拟化环境的限制(Runs All VirtualizedWorkloads)。
  在数据库一体机那边,Oracle也在逐步放宽对虚拟化的限制,如Exadata的小兄弟Oracle数据库机(Oracle Database Appliance,ODA)X5-2,就将Oracle VM作为可选项。
  虚拟化不忘物理机,物理机想加虚拟化,超融合的边界好生繁忙……
  2U4到4U4:FusionCube 6000要点解析
  如果说FusionCube 9000靠的是压缩空间(Rack→Chassis),那么FusionCube 6000靠的就是扩展空间(2U→4U)。
  前面提到过2U4(节点),这种多节点高密度服务器在企业市场得到广泛重视,很大程度上要拜超融合所赐。
  1U服务器放不了多少存储硬件资源(硬盘/SSD),“存储服务器”基本都是2U的,计算存储两不误。可是超融合因为采用分布式存储,至少要3台服务器,再加上交换机,(特别是小型环境)多个设备交付起来,很没有“融合”或“一体机”的感觉。
  所以2U4很合适:前面存储部分走2U,后面计算单元为1U且半宽,还可以共享电源和风扇,颇有些“微缩刀片”的意味。(计算)密度(存储)容量都有了,一台2U的设备就能满足分布式存储的最小要求。戴尔及联想先后与Nutanix达成合作时,也要考虑常规2U服务器和2U4机型的储备。
  Supermicro的2U4节点服务器被广泛用于初创公司的超融合设备,此为配置12个3.5英寸驱动器的版本,2.5英寸驱动器可配置24个
  当然2U4同样有“螺狮壳里做道场”的问题,一是前面的硬盘仓位(盘位)不够分:3.5英寸每节点3个(12&4),2.5英寸每节点6个(24&4);二是节点里的扩展槽位不够用,放不下全尺寸的GPU。
  所以,如Nutanix也有2U2和2U1(即常规2U服务器)之类的机型。
  或者,把Box(小Chassis)再做大些,如4U4或4U8之类的呢?
  青云QingCloud使用Supermicro的4U4节点服务器,共48个2.5英寸盘位用于存储
  FusionCube家族中的另一位成员――适用于虚拟化和桌面云场景的FusionCube 6000,就是这么考虑的。
  FusionCube 6000基于FusionServer X6800数据中心服务器,这款4U多节点机型经过华为和中国移动研究院等合作伙伴的努力,演变为ODCC(Open Data Center Committee,开放数据中心委员会)的天蝎多节点服务器。换言之,X6800是第一款符合天蝎多节点服务器规范的产品。
  中国移动作为天蝎多节点服务器展出的X6800,采用(6)计算与(1)存储节点混合配置
  X6800也被华为称作“计算存储融合平台”,高度4U,支持4~8个节点,共享位于后部的4个电源和5组风扇,降低部署难度,提高电源和风扇的利用效率。
  在两组电源之间,有8个PCIe 3.0 x8扩展槽,支持半高半长(HHHL),每个功耗最高25W――很适合PCIe SSD,分别对应前面的8个服务器节点槽位。
  FusionServer X6800数据中心服务器后端布局,底下是5组80mm风扇(N+1配置),上面两边各2个供电单元(1+1、2+2配置),中间夹着8个半高半长的PCI Express扩展槽,颇有些E9000的风采
  目前X6800可用的服务器节点有单槽和双槽两种,单槽每框最多可部署8个节点,双槽每框最多可部署4个节点,支持混合部署,具备足够的灵活性。
  单槽(瘦节点)1种,双槽(胖节点)2种,共3种型号的节点,均为双路(2&至强E5-系列,16个DDR4 DIMM)配置,可以套用E9000的双路节点分类方式(超融合的套路啊,套路):
单槽的XH620 V3是计算节点,2/4个2.5英寸SSD/SAS/SATA硬盘或2个3.5英寸SAS/SATA硬盘,机框后部扩展槽可容纳1个半高半长PCIe SSD;
双槽的XH622 V3是计算I/O扩展节点,不支持3.5英寸硬盘,可以支持2个(GP)GPU和2个(后部扩展槽提供的)半高半长PCIe SSD;
双槽的XH628 V3是计算存储节点,最大支持4个半高半长PCIe SSD(前后各2),12个3.5英寸热插拔SAS/SATA硬盘或2.5英寸热插拔SSD/SAS/SATA硬盘,还有2个2.5英寸SSD/SATA硬盘可用来安装操作系统。
  FusionServerXH620 V3(左)、XH622 V3(右上)和XH628 V3(右下)
  大多数虚拟化场景(如桌面云)对存储的I/O性能要求没有数据库那么高(与此相应,FusionCube 9000适用于“高端虚拟化”场景),但容量要比较大,所以目前FusionCube6000只用XH628 V3,4个节点可支持48个3.5/2.5英寸硬盘,PCIe SSD作为FusionStorage分布式存储的Cache/缓存使用。
  4个XH628 V3节点组成FusionCube 6000。如果盘位都设计为直接在前面板访问,4U机型只能安装24个3.5英寸硬盘,或48个2.5英寸硬盘
  与2U4方案相比,FusionCube 6000单体大一倍,好处是节点也能多一倍。理论上,现在的FusionCube 6000甚至可以支持Oracle RAC的最小配置:3个双槽XH628 V3提供FusionStorage存储,2个单槽XH620 V3用作数据库服务器。
  作为入门级配置,这已经足够了,如前面提到的Oracle数据库机,刚推出时同为4U,数据库服务器和存储都是双份,4&SSD + 20&3.5英寸SAS硬盘,但集成了内部冗余的千兆以太网(GbE)互连,无需专门的网络设备。
  FusionCube 6000从3个节点起步,可以扩展到64个机箱
  实践上,不妨YY一下:最新的至强D(Xeon-D)SoC具有16个物理核心,超过2 & E5-2620 v3(共12核),接近2 & E5-2620 v4(也是16核,但Cache更大)。
  如果用至强D配合2.5英寸硬盘(全闪存可能还比较吃劲),做出单槽的纯存储节点,FusionCube 6000也可以有类似4+4的数据库配置方案……FusionCube 9000同样可以考虑增加半宽的纯存储节点。
  YY归YY,硬件平台对超融合系统的支撑作用,是显而易见的。
  网络待融合:SDN未到必备时?
  经常看到有人说:为什么超融合是计算与存储的融合,网络呢?
  在本系列的第一篇文章中,提出了“计算为主导,存储为区分,软件为核心,网络是未来”的发展轨迹。意即,如果没有被新的名词所代替,在超融合架构的未来发展过程中,网络的融合将是很重要的一个环节。
  在宣传上,超融合系统的网络部分都是融合的,但真正符合“融合”标准的,还为数不多
  然而,直到目前为止,超融合的根基还是计算与存储的高度融合,对网络融合则没有清晰的界定。绝大多数超融合产品,其网络部分仍未明显超越融合系统对网络的“集成”阶段。
  融合/集成系统广泛使用刀片式服务器,专用(外置)交换机仍是必备组件
  在IDC和Gartner对超融合系统的定义中,都强调了计算和存储资源的融合,基础是软件定义存储(SDS)、软件定义计算(Software Defined Compute,SDC)、商用硬件(commodity hardware,通常指x86服务器)和统一管理界面。
  Gartner关于集成系统的魔力象限(Magic Quadrant for Integrated Systems)报告中,倒是提到了计算、网络和存储硬件的紧耦合(Tightly coupled compute, network and storage hardware),但接下来的就是“消除了对传统SAN的需求”,并列出了一串存储管理功能。
  不是我们生搬硬套定义或玩文字游戏,而是现阶段,确实无法以超融合架构中存储所达到的两点去要求网络:
与计算硬件融为一体;
软件定义为必备功能。
  仅上面第一点要求,就足以把大量采用机架式服务器+交换机方案的超融合系统拦在门外了。
  FusionCube 的节点和网络配置,都体现了各自的特色
  在这点上,刀片式服务器显出优势。刀片式服务器被认为是最早的融合系统――融合(集成)了计算和网络,基本没有存储。譬如,FusionCube 9000所使用的“FusionServer E9000融合架构刀片服务器”有4个(2对)交换槽位,可安装4个华为CX系列刀片交换模块,背板交换容量达15.6Tbps,支持多种交换模块,包括40GbE、IB FDR(56Gb/s),可演进至100GbE、IB EDR(100Gb/s)。
  CX610 InfiniBand交换模块,QDR/FDR自适应,适合低时延高带宽应用
  但是,在基于刀片式服务器的融合/集成系统中,仍然有外部交换机存在:一方面是连接系统中存在的多台刀片式服务器;更重要的是,需要存储交换机在刀片式服务器之间共享SAN存储。
  FusionCube 9000使用10GbE组网时可扩展至8框规模,而无需外置交换机
  好在,FusionCube 9000是超融合系统,没有SAN存储,能够直接使用自带的刀片交换模块互联,10GbE(万兆以太网)级联最多可达8框,IB则可以7框级联。当然,最多20框级联这样的扩展水平,还是要通过外部交换机实现。
  从机框,到机柜,到多柜,FusionCube 9000的扩展能力已经能够满足大多数企业应用的需求
  至于软件架构层面,网络在超融合架构中也还没有显现出(相对于传统融合系统)的特殊性,绝大多数方案中网络仍是基于二层来实现互通,利用网络的高带宽来为分布式存储、物理及虚拟服务器的数据流提供通路,主要通过VLAN(Virtual Local Area Network,虚拟局域网)实现网络隔离。
  如同RAID已不属于人们常说的存储虚拟化或软件定义存储范畴(定义上是符合的),VLAN也很难被视为一种主流的网络虚拟化或软件定义网络(Software Defined Network,SDN)技术。
  而在物理及虚拟网络的规模没有达到一定程度时,SDN尚无很大必要,有些网络虚拟化特性则主要由选择的hypervisor决定。在这种情况下,是否将SDN/NFV作为超融合系统的可选功能或特别卖点提供,更多取决于各家的策略。
  6月下旬,IDC公布了2016年第一季度的全球融合系统季度追踪报告,整体市场增长11%(到25亿美元),超融合区段增长148%(到3.72亿美元),并且有这么一句话:中端市场乃至企业数据中心外沿的最终用户继续将全方位简化用户体验排在优先位置,是超融合系统快速增长的核心。
  本系列的第一篇文章也提到了类似的表述,即超融合系统今后一段时间仍主要得益于中(低)端市场。
  更大规模的(虚拟化)应用对网络的融合有较高需求,我们将在第四篇简要介绍超融合系统的组网,并适度探讨未来网络的融合。
  (所以,未完,继续待续……)
  等等,最后再次感谢各位DT粉,由于本周生病,海峰姐顺便给自己放了一个小假,感谢大家还在关注,明天继续更新!
  DT时代(微信号:DTtimes),由企业级媒体人海峰姐主创运营,关注数据时代的变革。目前覆盖的渠道有:搜狐新闻(DTValue)、今日头条、天天快报、微信公众平台、一点资讯,腾讯公众平台,欢迎与您探讨交流!
  联系本公众平台请发邮件:
欢迎举报抄袭、转载、暴力色情及含有欺诈和虚假信息的不良文章。
请先登录再操作
请先登录再操作
微信扫一扫分享至朋友圈
搜狐公众平台官方账号
生活时尚&搭配博主 /生活时尚自媒体 /时尚类书籍作者
搜狐网教育频道官方账号
全球最大华文占星网站-专业研究星座命理及测算服务机构
主演:黄晓明/陈乔恩/乔任梁/谢君豪/吕佳容/戚迹
主演:陈晓/陈妍希/张馨予/杨明娜/毛晓彤/孙耀琦
主演:陈键锋/李依晓/张迪/郑亦桐/张明明/何彦霓
主演:尚格?云顿/乔?弗拉尼甘/Bianca Bree
主演:艾斯?库珀/ 查宁?塔图姆/ 乔纳?希尔
baby14岁写真曝光
李冰冰向成龙撒娇争宠
李湘遭闺蜜曝光旧爱
美女模特教老板走秀
曝搬砖男神奇葩择偶观
柳岩被迫成赚钱工具
大屁小P虐心恋
匆匆那年大结局
乔杉遭粉丝骚扰
男闺蜜的尴尬初夜
客服热线:86-10-
客服邮箱:

我要回帖

更多关于 闪存 的文章

 

随机推荐