在阿里巴巴怎么买东西中国站买东西,一次最多可以拍多少件

阿里巴巴国际站各个图片的尺寸是多少,首页多宽。可以全屏1920么,店招大小,主图大小,详情大小。和_百度知道
阿里巴巴国际站各个图片的尺寸是多少,首页多宽。可以全屏1920么,店招大小,主图大小,详情大小。和
js样式和淘宝一样么,还是网页样式阿里巴巴国际站各个图片的尺寸是多少,首页多宽。可以全屏1920么,店招大小,主图大小,详情大小。和淘宝c店有区别么,可以用js么
您的回答被采纳后将获得:
系统奖励15(财富值+成长值)+难题奖励20(财富值+成长值)+提问者悬赏60(财富值+成长值)
我有更好的答案求助知道网友
你上传的时候他们会提示你照片尺寸不要超过多少。。照片大小在多少kb以内
需要审核并开通阿里服务后,才可以运用全屏海报的模板以及自定义模块。所以建议!代码目前是不允许的阿里巴巴国际站,首图规格是像素。要制作1920全屏海报的话,可以上传6张。详情页的宽度没有限定。不过长度规定是15张JPG格式图片,除非购买设计模板。望采纳!之前本人操作过阿里巴巴国际站以及中文站的店铺装修,若页面长的话,最好需要PS切片。首页的话,专业建议是不要太花哨,保持在15张图片。首页的话,系统有自带模板类似淘宝,国际站和中文站都不允许,服务开通前,要先设计好详情页以及6张以内的首图,只需运用系统模板,将要展示的产品类似淘宝一样直接添加分类产品的模块即可,上传后会系统压缩在750像素宽
本回答被网友采纳
2条折叠回答
为您推荐:
其他类似问题
阿里巴巴国际站的相关知识
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。&【暖心】下个月阿里要开年会,阿里小二们却纷纷在内网“晒床照”,大家都说被……暖到了
【暖心】下个月阿里要开年会,阿里小二们却纷纷在内网“晒床照”,大家都说被……暖到了
日05时37分来源:
最近有个阿里小二因用高科技爆改了自家80M的房子,火了!
这位89年出生的阿里小二特别能捯饬,把自家80平方米的公寓改得跟“密室逃脱”似的,人体感应器、红外信号发射器、识别声音指令的小器件……处处是机关。
在手机上呼唤Siri,客厅的主灯就会蹭地亮起来。
窝在沙发上不想动,吼一嗓子,窗帘就会自动合上。
去厨房拿个冷饮,灯都能自动感应。
还有敲门就会自动拨打主人电话的猫眼、自动给花浇水的灌溉器、给猫主子的自动投喂机、自动饮水机和自动铲屎机……
如此高科技的智能全屋正是出自阿里巴巴的程序员 “木酱”之手↓↓↓
木酱同学不仅爆改80M公寓,令姑娘们尖叫, 最近又在阿里内网发了一篇“908年会,欢迎你住在我家”的帖子,更是让人暖心不已。
(阿里内网截图)
该帖不仅火了,点击量超3万+,还有数百个阿里人跟帖晒“房照”、“床照”……,这是怎么了?
原来,9月8日,阿里巴巴就将在杭州大本营举行18周年年会。2017年对阿里巴巴集团来说注定是不同的。在重启网商大会的这一年,阿里巴巴集团又决定,在9月8日召开年会。
这场久违的年会更像是一场旷世之约,因为上一次开集团年会已经是2009年的事。不知不觉间,茂盛生长着的阿里巴巴已经聚集了约6万名同学和伙伴,而这一次年会,来自天南地北乃至全球各地的阿里人,也将聚集在杭州。
看到很多人都说没来过杭州,木酱同学便灵机一动,把自己家共享出来,邀请远道而来的同学免费住宿。
就是这么一个简单的提议,竟然把一群暖心的阿里同学给炸出来了。
大家纷纷留言、点赞。很多同学跟帖晒出了自己的家,欢迎外地小伙伴入住。他们还为这个“项目”起了一个代号叫“One home One dream 相约9.8,请来我家”……
晒出的床照和家照风格多变,也是大大颠覆了很多人心目中的阿里员工的形象。
这些真的不是酒店吗?也太漂亮了吧!
在阿里上班的人,难道不是该每天捧着手机研究买买买吗,没想到如此热爱生活,一个个家里都这么有格调!
细节处更显生活情趣。
电影主题的水吧间
生机盎然的厨房
宁静安逸的书房
充满文艺气息的阳光阁楼
不过,也有画风跑偏的,
比如有同学热情到共享自己的毛坯房,还美其名曰工业风……
有美女分享出自己的半张床
有意思的阿里小二连浴缸都拿出来共享了,说是又能按摩又能睡……
“好多图片真的是,感觉我都想去住。其实这个事情挺阿里味儿的,我们认真工作、快乐生活。我们也可以把自己家里收拾得很好看,有自己的爱好和生活。”木酱说。
随着阿里的同学们越玩越大,闲鱼同学也主动站了出来,他们做了一个阿里人专用的免费短租平台。技术小哥们经过两个通宵的奋战,上线了阿里人的专题页面,让“共享住宿”真正成为一个有制度有保障的好事儿。
闲鱼小二巴滕说,虽然页面看上去并不复杂,但背后需要很多技术支撑,而这些技术不光掌握在闲鱼平台这里,因此,这次能够做成,可以说是牵动了很多阿里人。
“挺感动的,有时候(钉钉)敲到一个花名他解决不了,他也会自发去找其他人,接下来就有更多人投入这件事,并且把这件事最终达成。”巴滕说, “今年年会的主题是ONE,一家人的感觉,大概就是这么回事。”
因为房屋共享这件事,年会前夕,阿里内部人的形容是:整个江湖都涌动了。就连集团合伙人也参与了此次活动。
花名大炮的方永新是17年的阿里合伙人,这一回年会,他定向邀请了离职校友,工号241的黄榕光。当年,大炮时任广东大区总经理,老黄是他的金牌销售。两个人穿着廉价T恤、坐着拖拉机一家家拜访客户;背着硬面皮包,对付客户门前的狗;用“剃光头”、“裸奔”为赌注PK业绩,用一点都不互联网的方式为中国互联网事业奋斗着。
如今,已经离职创业的黄榕光欣然接受邀请来大炮家里住,一起喝喝酒、聊聊天,念叨念叨过去的故事和未来的事。
“阿里有句话叫‘一群有情有义的人在一起做一件有价值有意义的事’。”阿里组织文化沟通部资深总监梁音说,十八年来,这些人在一起不光追求业务上的成功,也培养起了相互间背靠背的信任,相互间的关怀。没有这份情义,阿里也不可能发展起来。
“阿里巴巴就要迎来自己十八岁的生日,全体员工会从天南海北赶回杭州团聚在一起。许多人是第一次来杭州,甚至第一次来中国。同学们心里,就是把这场年会当作一个大家庭难得的聚会,是每个阿里人都感到开心快乐的一件事情。木酱说出的就是大家心底都有的、与小伙伴们分享快乐的愿望。”梁音说,看到这个帖子的第一感觉就是,这个事发生在阿里一点都不意外。
阿里小二自行发起的“共享住宿”,共享的不仅是一间房,更是人情味。
家不一定是豪宅,租来的小阁楼,住进暖心的主人,一样温馨。
分享的房子也不在乎大小,远道而来的家人坐到一起,把酒言欢。
哪怕只有一张小床,也愿意跟最相亲相爱的家人一起分享。
这份人情味同样也感染了在杭的外籍员工,他们自发地邀请海外同学能去他们合租的房子住。
有人好奇,这个帖子和闲鱼的内网共享平台最终会促成多少共享,又会有多少故事。也有阿里人很笃定地相信,接下来,一定还会有更多的阿里民间自发活动,告诉你阿里人原来这样千姿百态。
阿里要十八岁了。听说,在十岁生日之后,正好选了这次“成年”的生日年会,在时间点上并非刻意为之。与重开网商大会一样,此时此刻已非昨日往昔,阿里走向全球化,云计算一步步改变着现在和未来,它们迅猛而至,阿里巴巴在狂奔,也不断有新的伙伴加入这波浪潮,见证着这个时代的瞬息万变。
而在狂奔背后,6万名阿里人的健康、快乐,才是阿里巴巴最好的产品。相信阿里巴巴的同学们已经给出了让人暖心的答案。从拍脑袋到全链路压测,阿里11.11容量规划三阶段 - 干货必读 - 优派YOPAI.COM
o 1年前发布
双十一的技术准备在做两件事情:第一是系统的准备尽可能的接近真实,包括容量确定性和资源的确定性;第二是整个过程中的效率,包括人和单位资源效率。& 演讲视频 &&iframe class="video_iframe" data-vidtype="1" allowfullscreen="" frameborder="0" height="408" width="544" src="https://v.qq.com/iframe/preview.html?vid=n03597ffzp1&width=500&height=375&auto=0"&&/iframe&本视频来自阿里巴巴研究员蒋江伟在ArchSummit北京2016的演讲。公众号后台回复关键词「双十一」下载演讲PPT。亲历双十一从2009年到2016年,参与了8届双十一技术备战工作。2009年的双十一,印象并不深刻,主要原因是当时整个淘宝的体量已经很大,每天的交易额已经有几亿的规模,而当时的淘宝商城双十一交易额只有5000万左右,和几亿比体量还是非常小的,所以感觉还没开始就过去了。&到了后面几年,每年都要花费好几个月的时间去精心准备,要做监控、报警的梳理,要做容量的规划,要做整个依赖的治理等等,也整理了各种各样的方法论。这是一个过程,当然在这个过程里面也沉淀出了很多非常有意义的事情。今天有人问我怎么做双十一,怎么做大促活动,我会告诉他一个非常简单的方法,就是做好容量规划,做好限流降级。&2008年,我加入淘宝,直接参与淘宝商城的研发工作。淘宝商城就是后来的天猫,当时整个淘宝商城的技术体系,和淘宝网是完全不一样的,是完全独立的体系。它的会员、商品、营销、推荐、积分、论坛,都和淘宝网没有任何的关系。两套体系是完全独立的,唯一有关系的是整个会员的数据是共享的。&2008年末启动了「五彩石项目」,把两套体系的数据打通、业务打通,最核心的点就是业务的发展变得非常灵活。这个项目的完成给淘宝商城的发展带来非常大的飞跃,后来淘宝商城也升级品牌为天猫。&另外,这个项目里还有一个很大的意义,就是比较优雅的实现了架构的扩展性、业务的扩展性和技术的扩展性。我们实现了整个服务的全部服务化,抽取了所有与电商相关的公共元素,包括会员体系、商品中心、交易中心、营销、店铺、推荐等。基于这个体系,构建后来像聚划算、电器城、航旅等的业务就非常快了。打破原来的架构,将整个公共的服务抽取出来之后,上层的业务跑得非常快,这就解决了业务扩展性的问题。第一次大规模使用中间件是在这个项目里,中间件3剑客,HSF、Notify、TDDL得到了很大的创新沉淀,并被大规模的使用。分布式带来的问题是一个系统被拆成了很多的系统,这其中也涉及到了扩展性的问题。这个项目也带来了技术的进步,从业务的发展到技术的扩展性,都达成了非常好的目标。&为什么要做容量规划?&2012年,我开始带中间件产品线和高可用架构的团队。那么为什么要做容量规划呢?双十一推动了阿里巴巴技术上非常大的创新,容量规划也是双十一在这个过程中非常好的创新。&今年做双十一的时候,老板问我今年还有什么风险?我告诉他风险肯定很多,但是最终如果系统出问题了,肯定发生在交易相关的系统里。阿里巴巴的系统分两部分:一部分系统是促进交易的,比如推荐、导购、搜索、频道等都是促进交易的,会做各种各样的营销;另外一部分系统做交易、红包、优惠等相关系统。&原因非常简单,导购类的系统留给你足够的时间去做判断,它流量的上涨不是瞬间上涨,而是一个曲线慢慢上升,它留给你30分钟做出判断。但是交易系统没有留出任何时间判断,一旦流量开始,没有给人反应时间,没有任何决策的时间,所有的行为只有系统会自动化执行。这个过程里面容量规划变的非常重要。&在早些年的时候,我们业务的自然增长本身就非常快。印象非常深刻的是,当时大家购物的时候打开的商品详情页面,有一段时间这个页面的负载比较高,公司召集了一些对于虚拟机调优、性能优化比较擅长的人来进行优化,调优了几天之后系统终于挂掉了。还好也在做一些扩容的准备,扩容完成,重启之后系统恢复了。这说明了什么?在早些年的时候,淘宝网也是一样,对容量的准备和预估是没有概念的,不知道多少容量能支撑整个系统需要的能力。&新业务不断地上线,业务运营、促销类的活动也非常频繁,记得有一次做一个促销规模非常大。会员系统非常重要,因为所有的业务基本上都会访问会员中心用户的数据,包括买家的数据还有卖家的数据。那时物理机单机缓存的能力大概在每秒处理八万请求的规模,今天来看是远远不止。但当时还没有到高峰期的时候就达到了六万,这是非常大的一个数字。&我们就把所有访问会员的系统全部拉出来,看哪些与交易无关就通知需要停掉,或者停掉一半。比如把与商家相关的,与开放相关的,与社区相关的系统停掉。在这个过程里面发生了各种各样的问题,总结来说就是我们根本不知道容量怎么去做,或者说根本就没有概念需要去做容量。所以容量规划归根结底就是:在什么时候什么样的系统需要多少服务器?需要给出有确定性,量化的数字。&容量规划的三个阶段&容量规划整个过程大概经历了七八年的时间,总共三个阶段。&第一个阶段在非常早期,我们评估的方法就是「拍脑袋」(经验判断)。根据负载的情况、系统的响应时间,各种各样的表现去拍一个数字出来。当时我问一个高管,到底怎么去判断服务器够还是不够,要支撑多少流量?他告诉我一个经验值,每台服务器支持100万的PV。&当时一天的流量曲线会有三个峰值,九点到十点,中午两、三点到五点,晚上八点到十点之间都是峰值。为什么是100万呢?这也是一个经验值,当然也有一点科学根据。我们希望做到一半的服务器停下来后能够去支撑线上的流量,同时在峰值的情况下,全部能够支撑住。实际上单机能支撑320万的PV,这是当时的经验值。&当然这个经验值当时是起作用的,原因非常简单,因为当时的系统架构简单。可以理解为把整个淘宝所有的逻辑和模块都集中在一个系统里面,所以各个模块之间的热点有时间差,通过一台服务器内部CPU的抢占或者调度在OS层面就解决了。&到了第二个阶段是线上压测阶段。因为一旦到了分布式之后,就会出现问题。举个例子,本来是会员的调用和交易的调用在一台服务器上,但是分开之后,流量比例就不清楚了。所以必须要引入一些压测机制,我们引入一些商业的压测工具来做压测。&当时有两个目的:第一个是系统上线之前要做压测,判断响应时间、负载能否达到上线的要求;第二个目的是希望能够根据线下的压测情况,准确地评估出线上大概需要多少服务器。第二个目的做起来就比较困难一些,记得当时性能压测团队还做了一个项目,叫线下线上容量之间的关系。因为线上的环境和数据与线下完全不一样,这里面没有规律可寻,没办法通过线下压测的指标反馈到线上去。这时候怎么办?首先是直接在线上压测。当时来看我们做这个决定是非常疯狂的,因为没有一家公司,包括阿里巴巴自己也没有人在线上直接做过压测。我们写了一个工具,拉取出前一天的日志直接在线上做回放。比如,根据响应时间和负载设定一个的预值,达到预值触发的时候看它QPS的多少值。&其次我们做了一个分流。因为阿里整个架构还是比较统一的,全部是基于一整套的中间件,所以通过软负载,通过调整配比,比如把线上的流量按照权重调整到一台服务器上,通过调整到应用端和服务端不断地调整到一台服务器上去,增加其权重,这时候它的负载也会上升,QPS也会上升,把这个过程记录下来。&这里已经是两种场景了,一种是模拟,回放日志。第二种是真实的流量,把做成自动化让它每天自动跑产生数据。这个事情做完之后,它从一个维度来说,替代了线下性能压测的过程。因为它可以让每个系统每天自己获得性能的表现情况。项目发布,或是日常需求的发布的性能有没有影响的指标都可以直接看出来。后来性能测试团队就解散了。&这里有个问题,它还没有基于场景化。场景化非常重要,比如我买一件衣服,平时买东西的流程可能是在购物的搜索框里面搜索,或者是在类目的导航里搜索,从搜索到购物车,再到下单这样的一个过程。双十一推的是商品的确定性,很多频道页面会把卖家比较好的促销商品直接拿出来作为一个频道页。双十二的时候推的是店铺,KPI不一样,推的东西也不一样。&双十一商品相关的服务器系统的流量会高,它所需要的服务器也会更多一些。双十二和店铺相关的系统服务器所需要也会更多一些。这与平时的流量表现是不一样的,用平时的容量去计算场景化流量,这也是不准确的。&我们也做了一件非常重要的事情:全链路压测。这是我们在2013年完成的事情,之前从没有对外讲过,这是一个核武器,它有个分界线。2009年是最顺利的一次双十一,因为没有什么流量,我们忽略不计。2010年、2011年、2012年,其实每年的双十一总是有那么一些小问题,其实心里也没底。&在2013年的时候,我们做了全链路压测这个产品之后,发生了一个本质的变化。2013年的表现非常好,2014年也非常好,这就是一个核武器的诞生。对于做营销和促销类的,它是有峰值的,在这个时间点之前峰值非常低,这个时间点之后峰值突然上去了。这就是处理这种情况非常有效的一种方法。&从线下到线上:单机压测的容量评估&重点分析一下线上压测和场景化的全链路压测。线上压测主要是由于淘宝的业务形态多样化。分布式之后各种各样的业务都出现了,它帮助解放了生产力。以前一百多个人在做一个系统,非常糟糕,但是通过分布式改造之后,整个业务服务抽象出来之后,生产力被解放了。&其次,每个业务的机器规模非常大,每个业务应用数量非常大。我们其实是做了一个分层,根据一个系统具备的容量不断计算,最后计算出来阿里巴巴的集群容量。我们先做一个应用系统,通过分流,流量通过负载导入,把负载跑到最高之后计算。把这个APP整个集群,比如100台服务器能支撑多少量计算出来。当然数据库非常难算,数据库都是提前规划的,一般来说数据库分库分表之后,都是留了好几年的量,比较困难一些。&通过这样把整个集群的量和规模全部做出来是有问题的,为什么呢?因为系统一旦开始拆分之后一发而不可收拾,拆得越来越多。系统的依赖关系虽然是有工具能够梳理出来的,但是我们没有经历看到底哪些系统会因为这个场景下面什么原因导致整个集群出现了一个小问题。一旦出现了一个小问题,整个集群全部崩溃掉,这种问题是没法避免的。&在2013年之前都是基于这套体系去做,想想也是挺合理的,每个系统算出容量,一个个集群算出来,再算出整个大集群也是可以的,但是它还不是一个非常好的解决方案。它非常好的一点是可以自动化运行,可以每天跑出系统的容量,并且可以保证系统不腐化,日常的性能、指标不腐化。&压测平台的架构&2013年的双十一是通过这套系统做的。通过几种方式,通过模拟以及流量的复制,转发的引流,还有负载均衡的流量去实现。整个系统做成自动化,每周都会跑,根据发布前后的一天跑出来数据之后生成一个报表反馈性能有没有下降可以得出。根据计算值准备整个活动流量大概要多少。这里有一些数据,每个月有5天自动做压测,这种情况下靠人工做性能压测是做不到的,因为它是自动化的。&刚才也讲了一些缺陷,它是以点到面,通过一个点的容量评估,扩展到一条线,扩展到一个面。最大的问题是没有一个人搞得清楚整个架构到底怎么样,整个系统依赖关系里有遗漏之后会形成整体的崩溃。&为什么要做场景化的容量评估?&我们需要场景化压测的另外一个原因是因为整个背景的流量大部分用的是分流,分流意味着是用真实的流量去做的,所谓真实的流量其实是很低的,和做活动相比流量非常低,没有背景流量整个机房的网络设备和交换机的流量无法跑满,所以这些问题是没办法暴露出来的。第二个问题是场景化的确定性,每个人购物流程是不一样的,在不同的流程下面整个系统的资源必须确定下来,要用最少的服务器支撑最大的量。&基于此,当时有一套争论,要怎么做场景化压测这个事情?第一种方法,把整个淘宝网隔离出一个小的环境里面布100多个系统。整个流量引进来,把集群跑满,流量跑满。它比较好地解决了依赖关系的问题,如果依赖出现问题的时候,在这个环境是能够验证的。但是没办法解决环境的问题,那一年我们公司有一个业务,就是因为没有采用这套方案,采用了类似于小环境的流量去验证的方案,导致入口交换机的整个流量跑满。&场景化容量评估&&所以需要有一个更简单可靠的评估工具,这就是基于场景化的全链路压测。2013年之后我们全部基于这套体系在做,首先要造数据,流量希望能够更接近真实的情况造出来。刚才提到临近峰值是没办法做决策的,唯一能做的是什么?能够提前模拟一次零点的峰值是什么样子的吗?我们希望把整个流量模拟出来,这是一个理想的架构,但是它也有很多困难的地方。&我们要尽可能把数据造得精确,各种场景都要模拟出来,比如优惠券如何使用,购物车里商品比例是多少,一次下单有多少商品,最后多少商品提交到支付宝等等。数据量每年越来越大,比如以2015年为例,数据量接近1T,把这1T的数据传到中心,通过中心传到压测节点上去,这就是压测集群。它是一个压测工具,但是它本身又是一个集群性的压测工具,它可以产生非常巨大的流量,与双11一模一样规模的数据。&把集群部署到CDN节点上,产生巨大的流量。这里有一些技术点,压测的工具要支持多种协议,比如HTTPS协议,需要提升性能。还要做流量的控制,根据业务场景的不同调节流量。第三点流量需要染色,右图反映了真实的流量,这些全部是在线跑的,没办法在线下模拟这个环境,否则会影响线上正常的流量,所以要把正常的流量和压测的流量完全区分开来。第四点是流量的隔离。没有流量隔离之前,我们只能在零点以后流量很低的时候,每个人都盯着自己的系统有没有出现什么问题,非常辛苦。第二年提了一个目标,希望能改善大家的幸福指数,所以我们推出了流量隔离。&&流量隔离是把整个集群从原来在线的集群,比较快地通过负载均衡隔离出一个集群出来。当然隔离出的集群规模是非常大的,它可以占原来集群的从90%到10%。比如原来有10万台服务器,可以隔离到9万台服务器。因为准备做大促的时候,比如双十一的流量是平时的20倍以上,所以平时流量非常低是可以隔离出来的,并且不会影响现有的流量。&整个过程是怎么样的?以图为例,ABCD这4个系统是日常的流量,原始的场景C所需要的服务器多,但是压测之后发现B和D需要的服务器比较多。整个过程都是自动化的,如果C不需要这么多服务器,它的服务器就会被下线,这些服务器就被自动加到B和D。由于都是自动化跑,效率非常高,而且不需要到凌晨跑。最后需要把隔离出来的集群还到原来在线的集群,变成服务器的比例,就可以准备第二天的大考了。&容量评估的流程&整个容量评估的流程,从数据构造到流量环节,我们都有一个指挥部。比如我们要做一次活动,这次活动大概要5万笔每秒的交易量,输入5万笔每秒这个数字之后,整套系统开始运作,做压测、做弹性调度、做隔离,这就是整个自动化的过程。容量是可以预测的,但是没办法规划,只能做限流。我们可以非常精确地预测出双十一大概会来多少量,会来多少用户,以及当时的峰值,都可以完全精确预测出来。&但预测出来也没有太多的意义,能做的就是限流笔数,比如2016年我们做到了17.5万笔,限流的值设定到了17.2万,所有的系统先设定到这个值。这也是没办法的,因为真实的流量比这个大得多,要支持真实的流量成本会非常高。&日常占有的服务器是非常低的,在大促的时候我们基本上都采用阿里云的服务器,所以成本下降明显。所以说整个容量规划限定了一个值,比如说17万,明年可能是20万,或者25万,在这个值的基础上,通过基于场景化的全链路压测工具,然后把整个系统的容量压测出来,计算出来,把整个服务器资源占用拉平。这样做的好处是用了最少的资源做了一次最成功的活动。&场景化容量评估的表现从2013年开始,我们通过这套技术发现了大量的问题,而且这些问题经过日常的测试,功能测试,或者一些工具的测试,是没办法发现这些问题。硬件、网络、操作系统的问题,从来没有发现的问题全部暴露出来,在大负载情况下表现出各种诡异的问题。&任何一个问题在双十一发生,可能都是灾难性的。2013年我们做完这些事情之后,回头看2012年、2011年,不出问题还怪,肯定会出问题。凡是峰值流量是平时峰值超过多少倍以上的活动肯定会出问题,因为很多的问题没办法通过一些逻辑,通过一些思考找出来的,它必须借助一个真实的环境,模拟出所有场景的流量把它营造出来。&容量评估的总结&&容量规划是一个领域、一个长时间的过程。最初利用商业软件做性能压测,当时觉得这个软件应用挺好的,也能够支撑整个容量的一些计算,甚至今天很多的公司还在用类似的软件做性能的评估,它也是不断引进的过程。后来发现,其实与真实压测评估的容量还相差非常远,所以我们引入了线上的压测,引入了分流、复制流量、及日志的回放,通过一个个节点把自己的流量评估出来。&当时觉得这套系统很厉害,因为当时做了这套系统获得了整个技术部的创新大奖,所以觉得有了这套系统以后,以后做双十一就不用愁了,做任何活动就不用愁了,觉得这是非常了不起的系统。实际情况还是需要不断地发展,做了全链路压测,整个链路基于场景化的真实场景模拟,把整个集群压测出来。&回过头来看,在一个领域里面,当自己满足于当前现状的时候,比如说CSP“日常的压测平台”能够完全满足于当前现状,而且已经领先于国内很多产品的时候,其实你还是可以继续往前走一步。&我们只是做了双十一创新里容量规划这个点。阿里巴巴整个技术架构非常统一,因为做了全链路压测之后,很多的业务单元,像支付宝等等都可以采用这种方式做,它可以非常简单地复制出去,这也给我们带来了非常低的成本。从研发开始到学习,以及运维的过程,运维的产品线,带给了我们非常低的成本。所以我们整个团队人非常少,做全线路压测就4、5个人,但是它服务了整个集团100多个业务方,这也是因为整个架构的统一性。&今年双十一做完了之后,我们的CTO也给我们提出了新的挑战:双十一的整个过程可以投入更少的成本,全链路压测是对日常系统的一种验证,而不是找问题本身,同时希望我们的系统更加的自动化和智能化。我们正在思考如何实现。——End——&& 讲师介绍 &蒋江伟,花名小邪,阿里巴巴研究员,08年加入淘宝网,参与业务系统研发工作。12年开始负责阿里巴巴中间件技术产品和高可用架构,中间件产品是阿里巴巴电商等业务分布式架构的基础技术组件,使得各种业务系统能快速构建一套高可用的分布式架构集群。ArchSummit北京2016演讲视频已陆续发布,点击阅读原文获取
创业者们,如果你或你的朋友想被优派网报道,请狠戳这里&&&&
文章总数0万总阅读量 最新文章
微信扫描,关注心理学与生活,在这里找到你内心的答案!
客服邮箱:
APP推广服务:
优派QQ2群():
优派QQ1群():

我要回帖

更多关于 阿里巴巴怎么买东西 的文章

 

随机推荐