微博近似广告=可以赚钱的软件有哪些工具

现在微博在国内已经是非常火了很多人也开始利用微博来进行推广赚钱了,现在国内名气比较大的有新浪微博、腾讯微博百度的说吧因为实名制搞得还不是很热,搜狐、网易等微博发展很不给力

  微博最基础而且最简单的赚钱方式就是给联盟做推广。我们都知道当你给一些商家推广产生业绩后会僦可以得到提成而推广的方式也很简单,只要有顾客点击商家提供的特别链接购买产品或者服务就有提成比如凡客诚品、京东商城、淘宝客、卓越亚马逊、当当网等等,这些联盟都可以操作这个模式看上去很简单,关键点和难点就是微博的影响力影响力主要表现在兩个方面:一个是增加微博听众的数量,在有一个就是微博听众的粘性主要表现在听众对微博内容的关注程度,往往以所发微博的转播佽数来衡量

  这种盈利模式以比较专注性质的微博做起来效果更好,比如专门讨论*话题的微博、专门讨论美容的微博、专门讨论衣服穿着的微博等等  养微博变卖赚钱

  如果你是微博运营的高手,可以迅速积累微博听众和影响力的话养微博卖号也是一个不错的賺钱方法。

  微博与企业商家合作赚钱

  都说微博具有媒体的性质只不过这个媒体的主导者是每个博主,根据微博影响力的不图鈳以相当于一本杂志,可以相当于地方电视台、可以相当于一份报纸如果你有一亿人的影响力,你就是CCTV所以,如果你的影响力足够那么是不是可以跟商家以及企业合作,给他们做产品或者是品牌的宣传也是一个不错的盈利方式。

  微博的潜力毋庸置疑但是每一個微博的影响力是有限的,面对此种情况出现了一种微博联合的威客推广模式。每一个微博都可以加入然后有需要做推广的商家或者企业或者个人发布微博推广任务,然后接任务发相应微博,然后根据每个微博的粉丝数量给所发微博定价从而赚取推广费用。

8月29日新浪推出了一款全新的社茭App “绿洲”,主打“清爽的年轻人社交圈”上线后首先开启了邀请注册,和十年前微博上线的策略非常目前只有明星等有一定粉丝量嘚用户才可以被邀请,普通用户只能通过邀请码进入内测体验

“绿洲”的UI界面设计和布局和Facebook旗下的一款社交应用Instagram很相似,二级页面的详凊页几乎和Instagram没有任何区别都是通过图片和短视频来分享生活,其他用户可以在图片下面点赞留言。

甚至连slogan也有点熟悉:“在绿洲发現美好世界” ,比如:在抖音记录美好生活。

截至9月3日绿洲已经登顶 App Store 社交类免费榜第一。

不过抄完Instagram的 “绿洲”似乎还觉得不够过瘾,有网友爆料其App 的icon也涉嫌。原来 “绿洲”的应用图标直接照搬了工作室Studio fnt于2015年为韩国唯一的国际山地电影节——蔚州世界山地电影节(UMFF)设计项目中的部分元素。

从对比图中可以看出“绿洲”直接截取了Studio fnt设计的名片中的一部分图案,两者的一致性非常高所以这完全可鉯不用质疑是不是借鉴的问题,完全就是抄一字不差的抄!

被爆抄袭不久后,绿洲的官方微博在昨日下午发布了一则声明其大意是两鍺存在“相似”,称是设计师借鉴了一些网上公开素材(沙漠、太阳花、仙人掌等)进行设计并有模有样的阐述了一番自己的设计理念(下图)。能够把抄袭说的这么清新脱俗也算是微博的一大特色了。

绿洲表示为保护版权已经将 “绿洲”从 App Store 临时下架,同时启动内部設计流程核查工作并跟相关设计方联系解决版权问题。

部分网友对此事做出的评论

下图为绿洲声明中的四张附图展示了设计师原稿以忣借鉴的部分内容。

绿洲设计师的AI设计方案原稿(图一)

那么问题来了,绿洲此次的抄袭事件会不会和之前的小米一样最后让设计师褙黑锅呢?

其实背锅的结局已定在网络上流出的一张群聊天截图中,有人建议直接开除设计师群主来去之间(微博CEO 王高飞)表示:“肯定得开”。

今年6月份小米在其西班牙语网页中设计的Banner剽窃了一位来自英国艺术家的三件艺术作品,并将这三幅作品杂糅成新作品后在覀班牙宣传和推广自己的产品和设备

被指抄袭的小米西班牙网页设计图

被发现后,小米公司做出回应表示公司确实在未经原作者授权嘚情况下使用了这位艺术家的作品,已向Peter Tarka表达了歉意今后公司将强化内部的审批艺术作品流程,以防此类事情再次发生同时并表示已經解雇了违规员工。

本文由标志情报局用户投递文章仅代表作者观点

?下面附上韩国设计团队 Studio fnt 作品为蔚州世界山地电影节设计的作品内嫆:原始出处可以在这里查看:

    ? 除非特别注明,所有报道中出现的商标及图像版权属于其其合法持有人本站只供传递信息之用,非商務用途如有侵犯到您的权益,请及时告知本站将及时删除或撤换。详细请参阅本站转载本文请保留文章在本站的完整链接。互动交鋶时请遵守理性宽容,换位思考的原则

【大咖·来了 第7期】10月24日晚8点观看《智能导购对话机器人实践》

如今日活达到了 2 亿广告是微博最主要且稳固的收入来源,没有之一因此微博广告体系的稳固性是咱们廣告运维一切工作中的重中之重。

微博广告的运维首要负责资产管理、服务稳固性保护、故障应急处理以及成本节制等多个义务

微博广告运维发展经验了如下阶段:从早期小规模的手工运维到工具化运维,随着数目的发展业务模型日渐发展,开垦、运营、QA 都参加到产品嘚性命周期中咱们如今也进入了主动化运维的阶段,在新的虚拟化技巧、算法技巧的驱动下咱们也在朝着 AIOps 的方向尽力。

在整体运维过程中咱们遇到了很多痛点,幸福的人生都是一致的不幸的人生各有各的不幸,各家的运维都各有各的痛点

咱们的在 3000 台以上,业务线忣辅助资源各种各样产品迭代异常快,且依附关系复杂流量变更,切换丧失不可接收

在这种状况下,咱们面对资产管理困顿、环境鈈统一、上线难度大、运维成本高的课题

基于这些课题,微博广告运维工作首要集中在以下四个方面:

一个健全的主动化运维平台必需偠具犹如下几个功能:

基于这些功能和需求咱们广告运维自主研发了 Kunkka 平台(微博广告运维自主研发的主动化运维平台)、资产管理、主动化仩线等运维平台。

资产管理是基于公司 CMDB(公司级别的资产管理体系)获取到主机云服务器针对微博广告对资源的管理需求自建定制化的资产管理平台。

配置中心包含服务注册、服务配置等功能;主动化上线涵盖了开垦在上线过程中所须要的节点和流程

自主终端是行业变化的功能实现,大家可以经过页面完结文献或命令下发、日志审计等各种工作

Kunkka 基于主机和容器,经过 Salt 作为传输层进行命令下发组件层蕴涵开源软件,操作层将命令页面化经过页面进行日常工作和管理。

这么的主动化运维平台基本上满意了运维的日常操作需求在 Kunkka 平台中还有主动扩缩容的功能,咱们针对这个功能进行延长

在主动扩所容的基础上,根据空儿段流量进行径态判断,主动决策的扩所容够功能

艏先,在产品方面咱们的产品线很多,依附关系较为复杂

微博广告相等于一个桥梁,左边衔接的是广告主右边衔接的是客户,须要將广告主的广告计划转移为用户的需求让用户看到亲自想要看的广告。

为了满意两边不同的需求产品的变更和颁布异常主要且频繁。

其次在运营方面,很多有推行需求计划的大型活动都有临时扩容须要譬如 618 跟双十一,对于咱们而言这两个活动带来了很大的冲击

在 618 囷双十一大促之前,为了加大亲自的影响力各个广告主会增添广告计划,微博广告这边再针对广告主的行径加大咱们的曝光量实现广告主广告计划的转移。

在 618 和双十一大促之前为了加大亲自的影响力,各个广告主会增添广告计划微博广告这边再针对广告主的行径加夶咱们的曝光量,实现广告主广告计划的转移

按照传统运维模式,扩容计划从立项到服务器上线会通过诸多的流程跟漫长的等待。

从荿果上来看服务器扩容了,而且对传统项目而言整个流程都是可控的,这是它的长处

它的缺点不言而喻,有以下几点:

首先它时效性太差,要是按照新浪服务器的采购周期从审计到上线须要两个月的流程。两个月后服务器上线生怕刚结婚的明星都曾经离婚了,突发事变流量都曾经从前了

另外,它无法精确预估容量在传统的业务运维模式下,范冰冰分手、双宋离婚带来的流量是无法实现的咱们无法评估扩容量。

除此之外传统模式下资源使用率较为低,服务器很难在业务间共享

在这些课题共同作用下催生了动态扩缩容系統。

弹性计算:实时动态扩缩容

动态扩缩容不是一个工具是一整套系统。它基于云服务蕴涵了在线压力检测和损耗度评测的功能,最後实现分级治理

首先简单引见一下弹性计算的架构,弹性计算依托于 Kunkka 主动化运维平台以及 Oops 监控平台,在业务压测的状况下获取业务指標监控将数据送到容量决策体系,做出是否扩缩容的决议

在云服务商方面,咱们常用阿里云、华为云跟一部分自建的私有云DCP 混合平囼是咱们微博另外一个团队做了几年的平台,它能够对接云服务快速生成云主机快速扩容。

今天的重心跟业务方有着最直接的关系:业務上要不要扩容?什么时间扩容?扩多少?咱们要解决这么的课题

在上文的架构中,咱们提到了容量决策体系容量决策体系实际上指的是计算体系,会对咱们获取到的业务指标进行计算、评估

譬如体系的基础信息、一点儿业务上日志来源的信息等,得到眼前业务的容量经過对履历数据进行同比、环比的分析,得到流量趋向理解接下来流量会变成什么样式,这两组数据计算成果会给出扩缩容的要求

同时,他们会计算这些数据并加以呈现供应一个辅助的 API 接口,给上下游部门做扩缩容数据

这个业务的眼前容量是什么样的?是不是健康的?这個指标靠什么来评估?

因为业务体系、业务形态、架构的不同,选取一个实时且通用的指标是异常具备寻衅性的咱们也尝试了很久,引入叻 AVG-hits 的概念

对于处在不同空儿内的建议数进行加权、演讲和来拟合实际的单机损耗量,这个代表的是在不同的区间的耗时数咱们给它一個系数,大于 5 毫秒小于 10 毫秒根据亲自的业务给予耗时分区,这么就能计算进去

事例证实,与之前传统的单一 QPS 负载对比起来综合的数據对业务的评估比这种单一指标是更加精确的。

在获得这个数据以后是不是就能够描写眼前的体系容量呢?

回答是确定不能AVG-hits 这个概念第一佽接触,确凿是有点生涩举个简单的例子来帮忙糊涂,譬如说某个业务损耗指标衡量异常简单须要经过内存判断损耗状况。

要是监控指标提示内存损耗到 80G那能不能用 80G 来描写眼前体系的损耗状况?

这么问就较为轻易糊涂,回答确定是不能的由于不知道服务器最大的内存昰多少,要是最大是 96G那么 80G 曾经超过 80% 了,亲近危急值要是最大内存是 256G 则损耗不到 30%,是异常安全的值

道理是一致的,仅拿到眼前损耗值昰不能对业务眼前情态进行描写的还须要另一个评估标准。

这个业务眼前能承载的最大容量是多少?要是是看内存就简单了可这是一个綜合评估标准,要怎样拿到它呢?

作为一个有阅历的运维我觉得根据服务器眼前硬件的表示,猜测最大容量不是困顿的事务但如今都 2019 年叻,靠猜是不行的咱们经过压测获取最大容量值。

在实际环境中减少服务器数目减少到不能再少,记录眼前的容量值作为最大容量,用压测开端之前的实际损耗值除以压测获取的最大容量得到整系通通的损耗比。这个损耗比就认为是眼前这个体系损耗的画像

压测壓到什么状况下达到最大容量不能再压呢?是要压到服务器宕机?

咱们接入了另外一个概念叫损耗比,在耗时最大区间的 Ahits(建议数目)数(PPT 上卖弄:慢速比=100.0*眼前容量(Ahits)/最大容量(max_Ahts))与总的建议数之比超过一定的比例则是影响用户的表现。

这个压力达到最大值就不能再压了就会记录当时的 Ahit 數,作为这个接口最大容量

如今拿到了一个异常主要的容量值及损耗比来进行容量评估,用于描写眼前的容量损耗状况

拿到这个损耗仳以后是不是就可以扩容了?还是可以缩容了?此处还须要一个评估标准,是 30% 就扩?还是 50% 再扩?

咱们基于履历数据给予分析拟定了三条水位线,包含安全线、当心线和致命线拿眼前损耗值与水位线进行对比,在不同阶段采纳不同的办法

譬如,如今的损耗度远远低于安全线解釋如今服务器布置有冗余,咱们可以进行渐渐的缩容

要是说如今曾经高于致命线,则须要扩容让这个值更加亲近安全线,保证体系的穩固性

如今主动扩缩容的三个因素,眼前损耗、水位线、容量决策体系都曾经具有了咱们怎样样把这三个点联动起来?怎样样让它串在┅齐完结扩容举动?这些环节都蕴涵在在线容量评估系统内,这个系统可以实现压测的过程

咱们刚才说了压测不是经过流量拷贝进行模仿測试的,咱们是针对目的服务就用线上的流量,记录眼前(Ahits)数开端减少服务器的数目,一向到慢速比达到临界值的时间记录 Ahits 数作为本垺务单元最大的损耗。

得到损耗值后和水位线进行对比调用决策体系做出是否扩缩容的决议,接下来再对接云服务商就完结了扩容的舉动。

前面进行的数据采集、计算以及举动的串联,都是为了完结最终一个目的服务扩容失败。

真正的服务器扩容到线上以后如何財能保证服务是健康可用的呢?咱们还有另外一套辅助体系叫扩容演练。在实时演练过程中要注意以下几点:

布置效劳:咱们经过扩容演練来寻觅整体扩容过程中的瓶颈,譬如咱们下发是经过 DCP 对接云服务商来完结扩容的。

在真正的线上扩容过程中DCP 有时要同时承载几千台節点的扩容并发。DCP 的效劳是否能够满意?在扩容演练过程中须要确认这一点

带宽局限:微博和云服务商之间确凿是拉了专线,但是微博和雲服务商不只是微博广告的一个业务还有很多其余大户。

而且著名在流量增添的时间他们的扩容也是异常强烈的因此带宽是否可用,吔是咱们在日常演练过程中异常注意的现象

依附服务:这方面有很多案例,在这里简单分享一下2015 年春节,主动扩缩容的流程才刚刚开端春节当天晚上咱们扩容完几千个节点后,猛然发现负载平衡加不上去

之前做过演练,但不会拿几千台云服务器进行扩容可能几十囼确保功能可用就可以了,到时间要让负载平衡的同事经过配置文献增添下 Memeber 就可以

要是上千台的服务器没有方式增添到负载平衡装备,那个时间大家手忙脚乱最终经过手动的措施扩容节点。

大家知道春晚的流量高峰很短但那天确凿给了咱们当头一棒。接下来咱们在扩嫆演练过程中不仅会对负载平衡进行确认,还会对咱们依附的服务进行确认

譬如每次发生热门事变时,大家会说微博又崩了谈论又崩了,热搜出不来了

其实应对峰值流量是件很头大的事务,我把事务解决了兄弟部门没有解决,兄弟部门解决了姐妹部门又消逝了課题。

安全局限:618 大促时京东的同窗分享了在扩容的时间新增的服务器 IP 与 VIP 发生了冲突,而微博首要的表现就是数据库会对很多业务的建議设置白名单可是云服务器扩容以后 IP 是随机的。

另外新浪对于流传证有很多 IP 局限,因此咱们经过扩容演练系统不断发现各个环节中的課题给以解决,保证在扩容举动进行时能够顺当地完结保证扩容进去的云主机真正安全上线服务。

有了这个体系的加持截至到如今主动扩容服务都处于较为稳固的情态。

在上文提到的主动扩缩容系统当中提到一个叫 Oops 的体系,这是微博广告运维人员树立的智能监控体系接下来给大家简单引见一下。

说到监控不得不说监控遇到的很多课题。市面上有很多开源的监控软件譬如说常见的 Zabbix,在监控数据量少的状况下无论是基础监控还是业务监控,这些开源软件都是可以直接满意需求的

但是随着监控指标的增多,加上咱们的指标是实時性变化的数据央求又较为高,这些原生软件不再满意咱们需求了

另外,微博广告的业务数据有特别性著名运维关注的数据是体系嘚性能,体系的性能数据有时间来源于业务日志

但是微博广告的业务日志是收入,很多业务日志是一条都不能丢的譬如说结算的曝光。

每一条曝光对于广告来说都是真金白银,对精准性央求较为高单独经过性能监控的日志搜集方法是不能满意需求的,这也是咱们面對的寻衅

另外,监控体系著名都会具有告警功能有告警就会有告警课题,接下来会仔细地引见告警课题

还面对定位方面的寻衅,在監控越来越完美的基础上很多开垦的操作状况发生了变化。

一旦发生课题第一个反响并不是上服务器看一下体系怎样了,而是翻监控看看哪些监控指标发生了课题,因此监控体系会越来越多地面向于课题定位这个方向

Oops 整个架构面对的寻衅

作为监控体系,Oops 在架构上并沒有什么出奇的地方一切的监控无非就是四个阶段:

一切的监控体系都逃不开这四个阶段,只是根据业务的不同进行了定制化的工作

針对广告业务的监控流向,咱们把数据分成两类有一部分严密数据的计算,咱们采纳的是离线分析的措施经过采集软件将一切的日志采集到 Kafka,经过计算的工具进行拆洗、计算计算以后落存储。

还有另外一个团队开垦的针对于这一部分数据的页面揭示化还有一个体系叫 Hubble,针对精致数据的展现实现个性化定制的展现。

另外一部分是运维较为关心的数据今天来了多少流量?流量有多少是正常的?有多少长短常的?平均耗时是多少?针对这一部分,咱们采纳了实时数据计算的方法

在数据采集阶段发生了变化,咱们并不采集全量日志而是在客戶端做了预处理,进行分类计算

譬如说监控数据,就按监控数据的方法计算;告警数据就按告警数据的计算。而且按照用户读取的需求進行分类存储保证了高并发数据的实时性。

接下来仔细引见实时数据计算

首先从数据采集上演讲,上文提到咱们不采纳全量的采集措施而是经过 Agent 对数据进行处理。

在数据采集阶段在数据产生的服务器上,针对不同的需求按不同的空儿进行分类聚合最后向后推送的數据是 key-value、计算方法这种模式,推送给 Proxy

Proxy 拿到曾经被打包的数据进行拆包,然后送给不同的计算结点再按照 Key 进行计算,打空儿戳

这个数據并不精准,但咱们可以接收部分丧失只须要保证数据的趋向是准确的。

另外关于分类计算,不同的需求推送给不同的计算节点存儲也进行了分类,实时性央求较为强的话会直接放到内存以最精致粒度进行存储。

前三个小时的数据是按秒存的按天计算的数据是按 10 秒、30 秒存的,一点儿单机数据是按分钟存的

另外一点儿履历性的数据须要出报表的,譬如说要看前一周的数据前一个月的数据,按照夶数据的措施存到 OpenTSDB 当中

存储的数据供应一个 API,经过 API 咱们进行了分类计算、分类存储这种分类的需求来源于用户,须要看用户有什么央求要什么样的数据。

譬如Dashboard 的揭示数据会直接被放到内存里。另外上文提到的在线扩缩容数据,会相应获取数据给用户其余相干的獲取需求 API 也会进行分类获取。

接下来咱们计算过的数据还有一部分会存储到 Redis 经过 WatchD 作为告警中心的数据由于告警数据著名都只央求眼前数據,不会有人须要察看上个月这台机器的负载有没有告警

因此 Alert 节点计算以后的数据直接存在 Redis,Redis 把这个数据拿进去以后通过告警中心根据告警规则进行清洗经过各种措施推送到需求方。

同时有一个相对个性化的揭示叫九宫格咱们的九宫格实际上是一个联合报警功能的监控,它是一个页面但具有了告警功能。

接下来看一下监控图下面三张图是范冰冰宣布分手拿到的流量,咱们的反应是异常敏捷的平均耗时也涨上来了。

第三张图是拿到这些数据以后主动平台卖弄应该扩容了。蓝色跟绿色的流量线曾经降下来了大部重量调到云服务器上。

下图是咱们的九宫格,由于时效性较为强正常来说是以产品为页面,以业务线为格子每个格子记录的是单机的仔细信息。

要昰在这一组服务器当中单机故障数超过一定的比例这个格子会变色彩。

因此在正常的运维工位上都会有这么的大屏幕运维可以一目了嘫发现亲自一切负责的业务线状况,而不是让一台台机器在这里展现这么就没有方式看到业务线状况了。九宫格可以让运维更加直观地看到眼前的告警状况

告警有很多的课题,咱们遇到的课题可以分为以下四个方面:

运维人员须要关注一切部分从体系到服务、接口等等,维度很多一旦有课题,各种政策都会触发报警报警数目多到一定程度,基本上乘于没有报警

告警政策著名会周期性实行,一向箌告警前提不被满意要是服务一向不恢复,就会重复报下去另外,同一个故障也可能引发不同层次的告警

譬如,咱们有一个业务线叫超粉会有 360 台服务器,流量高峰时 360 台服务器会同时发送告警这种告警的重复率很高。

很多时间网络抖动、拥堵、负载暂时过高或者變更等缘故,会触发报警但这类报警要么不再重现,要么可以自愈

譬如一个硬盘在亲近 80% 的时间开端告警了,你让它告吗?有如得告但姒乎不告也可以。

不论是否主要、优先级怎样样告警都经过邮件、短信、App PUSH 发送到接受人,就像暴风一致袭击着接受人接受人没有方式從中获取到有效的信息,时常会让真正主要的告警吞没在一大堆闻名告警中

针对这些课题,咱们采纳了以下办法:

对于这种大规模服务器的保护抖动是异常常见的现象。网络抖一抖整体服务单元就会向你告警。

针对这种抖动咱们增添了一点儿政策,抖动的时间会先後较为监测重复性,看看是不是具有告警的意义经过增添告警政策这种措施来进行收敛。

譬如说流量突增的时间须要察看是不是同單元都消逝了这个状况。

仔细定义告警级别发送优先级、升级政策等,可有效减少粗放模式下告警接受量譬如,一点儿低优先等级的告警会让它告处理的级别会低一点。

同一个缘故可能会触发一个服务池里面的一切实例都报警比仿佛时无法衔接数据库,其实只须要報一次即可

咱们的好多变更都是在 Kunkka 平台上操作的,开垦有时间会选中一个通告如今是变更,告警请疏忽

以上办法能解决告警课题中 80% 嘚课题,如今大家都在朝着更高等的方向发展咱们也简单做了一点儿摸索。

在原有告警数据流状况下引入了工具 SkyLine这个工具蕴涵了多种算法,在十分检测环节中能够经过它内置的算法将咱们传入的数据主动去抖动,供应平滑的数据等你再拿到这个数据时就不须要再检測是不是告警。

这个工具避免了人工操作经过 Skyline 将数据进行平滑,供应一份精确的数据咱们只须要经过这份数据,进行规则判断决议昰否须要告警就好了,减少了对数据精确性判断的复杂过程

接着是根因分析部分,随着监控的覆盖面越来越广监控正确性越来越高。

等故障消逝的时间开垦人员就会去翻监控图,去察看大概是哪些缘故导致了故障

随着 Dashboard 越来越多,即便是阅历异常丰富的工作人员也很難快速地定位到缘故会消逝哪个方面、该去看哪张监控图

消逝流量突增的状况时,Skyline 会经过内部的算法 Luminosity 寻觅近似的状况察看雷同的空儿內是否有其余地方消逝流量十分,并将根源课题揭示在 TOPN 上

这么就能够快速察看在故障消逝的先后哪些业务也消逝了流量变化,方便对故障缘故进行分析和定位

还有一项异常主要的工作——服务治理,这里只进行简单的引见

微博广告现阶段所消逝的课题首要有:架构越來越复杂,上文提到微博广告的服务器曾经达到 3000 台

因此在这种服务器数目状况下,架构会越来越复杂稳固性央求也变得异常高;开垦的哆言语环境对上线颁布也造成了寻衅;资源利用是否合理,对运维来说也是一个寻衅

针对这些课题,咱们进行了低成本和高可用的均衡爭夺用最小的服务器达到最稳固的架构。

在保证服务稳固的状况下将流量进行均分,分到最小服务单元三机房布置为基本规则保障在┅个机房挂掉的状况下,另外 2/3 的服务器能承载全体的流量

关于上下游之间调用的均衡,尽量减少跨运营商的调用微博广告每一毫秒的損耗都会影响到收入。

咱们的建议空儿是 1 毫秒、1 毫秒地优化下来的这些耗损产生在网络和服务器上,很难经过人力弥补因而在这方面咱们也异常谨严。

另外小功能会抽象出功能的共同点,将这些功能服务化服务则按单元化布置。

在服务治理过程中咱们会根据服务嘚引入服务主动发现,尽量减少服务变更环节的人工干预先进安全性和实时性,自建负载平衡会有标准的数据输入和数据颁布的过程鈳以大大晋升后期的可扩张性和可用性。

通过近半年的服务治理咱们达到了这么的成绩:

架构更增强壮,容灾能力先进

体系、数据、配置标准化

服务器的合理利用成本节制

其中,我觉得最主要的是体系、数据、配置标准化的过程

今天好多分享的嘉宾也提到了 AIOps,这些上層的建设都是依附于整体业务标准化的过程

中国有句古话,工欲善其事必先利其器,咱们一切的标准化过程就是为下一步人工智能打丅坚实的基础指望咱们的工作能够以技巧保证微博体系稳固,助力微博广告的收入

孙燕,微博广告基础运维负责人2009 年入职新浪,任職 10 年间参加博客、图片、视频、微博平台监控、微博广告多个产品运维致力于运维主动化、产品架构优化、服务治理、智能监控及以监控为依托的服务容灾建设。

老牌运维教你怎样样快速分析Linux服务器的性能课题

一文读懂Tomcat组件--一个Web服务器的架构蜕变史

完好Linux服务器的7个步骤

服務器布置:php.ini配置性能调优

9款Kubernetes的无服务器工具保藏了

我要回帖

更多关于 可以赚钱的软件有哪些 的文章

 

随机推荐