arp guard servicee在华为手机怎么设置

豆丁微信公众号
君,已阅读到文档的结尾了呢~~
ServiceGuard的维护及故障检修方法,phoneguardservice,keyguardservice,serviceguard,guardservice,service guard,phone guard service,蓄电池维护与故障检修,hp service guard,电磁炉故障检修一点通
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
ServiceGuard的维护及故障检修方法
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='http://www.docin.com/DocinViewer--144.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口S-GUARD 智能翻盖式手机壳/保护套/手机皮套 适用于 华为P9 plus 华为p9 plus 土豪金【图片 价格 品牌 报价】-京东
S-GUARD 智能翻盖式手机壳/保护套/手机皮套 适用于 华为P9 plus 华为p9 plus 土豪金
与行业相比
PLUS会员专享价
您购买此商品可享受专属价
选择新地址
¥暂无报价
价 格: 到
   
规格与包装
本店好评商品
商品名称:S-GUARD 智能翻盖式手机壳/保护套/手机皮套 适用于 华为P9 plus 华为p9 plus 土豪金
商品编号:
商品毛重:100.00g
货号:华为p9 plus
材质:PU/仿皮
热门机型:华为 P9 Plus
款式:翻盖式
商品介绍加载中...
适用型号华为p9 plus
类型保护套
权利声明:京东上的所有商品信息、客户评价、商品咨询、网友讨论等内容,是京东重要的经营资源,未经许可,禁止非法转载使用。
注:本站商品信息均来自于合作方,其真实性、准确性和合法性由信息拥有者(合作方)负责。本站不提供任何保证,并不承担任何法律责任。
价格说明:
京东价:京东价为商品的销售价,是您最终决定是否购买商品的依据。
划线价:商品展示的划横线价格为参考价,并非原价,该价格可能是品牌专柜标价、商品吊牌价或由品牌供应商提供的正品零售价(如厂商指导价、建议零售价等)或该商品在京东平台上曾经展示过的销售价;由于地区、时间的差异性和市场行情波动,品牌专柜标价、商品吊牌价等可能会与您购物时展示的不一致,该价格仅供您参考。
折扣:如无特殊说明,折扣指销售商在原价、或划线价(如品牌专柜标价、商品吊牌价、厂商指导价、厂商建议零售价)等某一价格基础上计算出的优惠比例或优惠金额;如有疑问,您可在购买前联系销售商进行咨询。
异常问题:商品促销信息以商品详情页“促销”栏中的信息为准;商品的具体售价以订单结算页价格为准;如您发现活动商品售价或促销信息有异常,建议购买前先联系销售商咨询。
心中疑惑就问问买过此商品的同学吧~
iframe(src='//www.googletagmanager.com/ns.html?id=GTM-T947SH', height='0', width='0', style='display: visibility:')博客访问: 245015
博文数量: 121
博客积分: 1470
博客等级: 上尉
技术积分: 1248
注册时间:
1. 安装前系统的准备:&&& MC/ServiceGuard使用ARPA服务来保证在集群系统内每个节点之间的通讯安全。在安装之前,你必须指明集群系统中的每一台机器都可以被另外一台机器以root的身份访问。除
了使用操作系统本身的配置文件/.rhosts来定义可访问主机外,MC/ServiceGuard也指定另外一个文件/etc
/cmcluster/cmclnodelist来定义,MC/ServiceGuard将首先检查这个文件是否存在,存在就使用这个文件中定义的主机列
表,否则就使用配置文件/.rhostscmclnodelist文件的输入格式是:[主机名]& [用户]& [注释],下面是一个例子:node1&&&&&&&&&&&&&&&&& rootnode2.sys.dom.com&&&&&& root将这个配置文件(或者.rhosts)拷贝到每一个主机。MC/ServiceGuard支持主机名为完整的域名。然后,检查你的集群系统中的每个主机的操作核心是否一致。因为必须保证在一个节点出问题的时候程序被转移到另外一个节点是能够有相同的运行环境。当然,强烈推荐你使用NTP服务来保证每个节点的时间保证同步。NTP服务的监听进程为xntpd,配置文件是/etc/ntp.conf。2.& 安装MC/ServiceGuard假设你已经安装了HP-UX 11.0。在每个节点按下面的步骤安装MC/ServiceGuard:1)& 加载MC/ServiceGuard分发的载体设备,磁带机或者光驱等;2)& 进入安装目录,使用命令swinstall来,运行软件的安装;3)& 选择正确的输入设备(你使用光驱安装的话就选择CD-ROM了);4)& 在所显示的列表中选择包:B3935BA&& MC/ServiceGuard5)& 选择了包后,选择OK;6)& 在每个节点上使用ioscan命令核实一下磁盘和驱动器是否被正确配置了。通常情况下,如果你对HP-UX并不是很陌生的话,这个应该是没有问题了。3.& 为跟逻辑卷建立镜相假设主盘为/dev/dsk/c4t5d0,其镜相盘是/dev/dsk/c4t6d0,(你的系统中通常不会是这样的,下面的操作请使用你自己的主盘名字)1)& 建立将被用作镜相的可启动LVM盘:#& pvcreate –B /dev/rdsk/c4t6d02)& 将这个盘添加到当前跟卷组中:#& vgextend /dev/vg00 /dev/dsk/c4t6d03)& 把它设置为启动盘:#& mkboot /dev/rdsk/c4t6d04)& 将正确的AUTO文件拷贝到新的LIF区域:#& mkboot –a “hpux –l q (;0) /vmunix” /dev/rdsk/c4t6d05)& 将引导卷、主卷和主交换分区镜相到这个新的可引导磁盘上去,确定在vg00目录下的所有设备都被镜相(比如说/usr,/swap等等):#& lvextend –m 1 /dev/vg00/lvol1 /dev/dsk/c4t6d0#& lvextend –m 1 /dev/vg00/lvol3 /dev/dsk/c4t6d0#& lvextend –m 1 /dev/vg00/lvol2 /dev/dsk/c4t6d0等等,必须保证引导逻辑卷首先被镜相。6)& 为镜相的卷更新在BDRA中的启动信息:#& /usr/sbin/lvlnboot –b /dev/vg00/lvol1 (启动)#& /usr/sbin/lvlnboot –v –r /dev/vg00/lvol3#& /usr/sbin/lvlnboot –s /dev/vg00/lvol2 (交换)7)& 检查BDRA是否正确:#& /usr/sbin/lvlnboot –R /dev/vg008)& 检查镜相是否正确创建;#& lvlboot –v4.& 将一个节点上的磁盘卷组“搬”到另外一个节点上去假设节点ftsys9上已经配置好了磁盘分区、卷组等,现在我们要在节点ftsys10上建立同样的卷组。1)& 将ftsys9上的卷组映象文件考到指定文件中:#& vgexport –p –s –m /tmp/vgdatabase..map& /dev/vgdatabase2)& 仍然在ftsys9节点上,将这个文件考到ftsys10节点去:#& rcp /tmp/vgdatabase.map ftsys10: /tmp/vgdatabase.map3)& 在ftsys10节点上,建立卷组目录:#& mkdir /dev/vgdatabase4)& 在ftsys10节点上,在/etc/vgdatabase目录下建立一个叫group的控制文件:#& mknod /dev/vgdatabase/group c 64 0xhh0 0 0 05)& 在ftsys10节点上导入ftsys9节点上的卷组数据:#& vgimport –s –m /tmp/vgdatabase.map /dev/vgdatabase6)& 检查/etc/lvmpvg文件中每个物理卷是否都是ftsys10节点上的物理卷名字。7)& 起用ftsys10上的卷组:#& vgchange –a y /dev/vgdatabase8)& 建立一个目录来加载磁盘:#& mkdir /mnt19)& 加载并且校验ftsys10上的卷组:#& mount /dev/vgdatabase/lvol1 /mnt1&5.& 使用MC/ServiceGuard命令来配置集群系统在节点ftsys9上运行命令cmquerycl# cmquerycl –v –c /etc/cmcluster/cmclconf.ascii –n ftsys9 –n ftsys10通常这是个很重要的命令,这个命令将定义生成由ftsys9和ftsys10两个节点组成的一个集群系统的配置文件,典型的文件情况请参考其他资料(呵呵,有点长,懒的输入了)。# cmquerycl –v –n ftsys9 –n ftsys10上面这个命令可以得到集群系统磁盘错误的次数。更多细节还可以使用man cmquerycl命令来看帮助文件。6.& 校验、分配集群系统配置文件本来SAM可以自动帮助你校验集群系统的配置是否正确,但是如果你是直接编辑的配置文件的话,下面这个命令对你是很有帮助的:# cmcheckconf –v –c /etc/cmcluster/cmclconf.ascii&这个命令实际上是检查以下内容:1)& 网络地址和网络连接是否有效;2)& 集群锁是否正确设置并且可访问;3)& 名字是否唯一,节点是否可以访问;4)& 命令行的脚本是否存在和允许运行;5)& 是否每个节点都被设置到同一个heartbeat的子网中;6)& 是否只有一个CLUSTER_NAME(集群系统的名字)、HEARTBEAT_INTERVAL(heartbeat message时间间隔)、AUTO_START_ TIMEOUT被设置;7)& HEARTBEAT_INTERVAL的值最小是1秒(注意:配置文件中的单位是毫秒);8)& NODE_TIMEOUT的值至少是HEARTBEAT_INTERVAL值的两倍;9)& AUTO_START_ TIMEOUT合法值应该大于0;等等其他,在此只介绍以上比较容易出问题的地方。在这个集群系统配置文件被校验正确后,前面已经说到,要让MC/ServiceGuard正确运行,在每个节点上都应有同样的这个配置文件。使用HP-UX命令来分配这个配置文件:首先获得集群锁并且初始化:#& vgchange –a y /dev/vglock然后分配出去:#& cmapplyconf –v –C /etc/cmcluster/cmclconf.ascii \ –P /etc/cmcluster/pkg1/pkg1conf.ascii&&&&&&& 最后释放集群锁:&&&&&&& #& vgchang –a n /dev/vglock7.& 测试集群系统的运行状况:MC/ServiceGuard提供了几个命令来控制集群系统和检测系统运行状况:1)& cmrunnode:启动一个节点;2)& cmhaltnode:停止一个节点;(相当于shutdown )3)& cmruncl:启动一个停止的集群系统;4)& cmhaltcl:停止一个运行的集群系统;5)& cmdeleteconf:删除集群配置文件;(非常危险的命令,除非是确实需要)&8.& 建立使用MC/ServiceGuard建立一个程序包:使用命令cmmakepkg来建立一个程序包配置文件(建议使用模板文件修改)。这里解释配置文件里面的几项内容的意义:1)& NODE_NAME:把每一个节点的名字都输入,一个节点一行;2)& RUN_SCRIPT和HALT_SCRIPT:启动、停止程序包时运行脚本的路径;3)& RESOURCE_POLLING_INTERVAL:检查资源是否健全的时间间隔;程序包配置文件的检查和分配跟集群系统配置文件的过程相似。9.& 集群系统的重新配置:在一些情况下你需要重新配置你的集群系统,但是有几点必须注意:1)& 在系统运行状态你不能改变集群锁的磁盘配置;2)& 不能直接把一个正在运行程序的节点从集群系统中拿走,必须先停止它的运行;3)& 不能直接把一个正在使用的磁盘卷组从配置文件中去掉,必须先停止使用该资源的程序包,然后才可以去除;4)& 不能改变集群系统的时间参数;下表可以帮助提醒改变配置时应该满足的条件:>;'>;改变集群系统的配置类型 >;'>;需要满足的集群系统的状态>;'>;增加一个节点 '>;所有的节点都必须在运行;串行heartbeat没有被改变配置'>;删除一个节点 '>;停止节点。即便在该节点不可访问和不可用的情况下也可以删除'>;改变最大的程序包配置 '>;集群系统不能正在运行'>;集群系统的时间参数 '>;集群系统不能正在运行'>;改变集群锁配置 '>;集群系统不能正在运行>;'>;改变串行设备文件 >;'>;集群系统不能正在运行>;'>;改变heartbeat或者监控用的子网 >;'>;集群系统不能正在运行
阅读(607) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~
请登录后评论。使用dataguard作为HA方案,要解决的一个问题在于:后台数据库发生了切换,client连接如何做到自动切到新的primary数据库上?
如果做通用的方案,需要客户端自己提供自动重连的能力,这点大多数java的occi的连接池都有实现。
但这些已有实现大多是对同一连接配置发起重连,所以需要考虑为application提供透明的连接方式,而不让应用看到具体dataguard的多个ip和service name,这就需要做些额外的配置工作。
一种方式通过vip,真实转发的ip只挂靠在有效数据库的ip上。这种方式切换发生后,application在断连的旧connection上发起dml会获得ORA-3113 "end of file on communication channel"的错误,此时application可以尝试重连机制和新的primary建立连接。
在f5上可以通过设置心跳sql和期望的返回结果内容,以类似ping方式获取远端数据库是否可用,来决定ip是否应该转发到该物理ip上。
另一种方式是通过设置tns和数据库暴露的service name来访问,通过合理设置,甚至可以做到在发生切换时的select操作仅仅被阻塞一会,而完全意识不到数据库已经完成了主备切换。
步骤如下:
1.客户端的tnsnames.ora中tns配置成
(DESCRIPTION =
(ADDRESS_LIST =
(ADDRESS = (PROTOCOL = TCP)(HOST = HostA)(PORT = 1521))
(ADDRESS = (PROTOCOL = TCP)(HOST = HostB)(PORT = 1521))
(CONNECT_DATA =
(SERVICE_NAME = myapp)
2.在primary数据库运行
dbms_service.create_service('myapp','myapp');
DBMS_SERVICE.START_SERVICE('myapp');
3.在primary数据库创建触发器:
create trigger myapptrigg after startup on database
v_role varchar(30);
select database_role into v_role from v$
if v_role = 'PRIMARY' then
DBMS_SERVICE.START_SERVICE('myapp');
DBMS_SERVICE.STOP_SERVICE('myapp');
解释下:这个方案的思路就是将两边的数据库的service name都设置成'myapp',当发生切换时,由触发器在数据库startup的时候把primary的实例以'myapp'的名字暴露,而把standby的'myapp'服务名给停掉,这样任何时刻只有主节点暴露名字为'myapp'的服务。
注意这里的plsql都是跑在primary,无需在standby上做任何设置,因为dataguard会自动将变化同步到standby数据库。
通过在primary数据库运行下面程序,可以让客户端在做select的时候甚至意识不到数据库的切换:
dbms_service.modify_service
FAILOVER_METHOD =& 'BASIC',
FAILOVER_TYPE =& 'SELECT',
FAILOVER_RETRIES =& 200,
FAILOVER_DELAY =& 1);
注意如果在切换时有comit的提交事务发生,还是会出现失误提交失败,要求回滚的情况。
下面tns是另一种配置方式,使用这种方式,不需要在oracle server中跑任何plsql脚本,在DESCRIPTION_LIST中的两个数据库甚至根本不需要处于dataguard中,可以是任意两个数据库。driver会按顺序遍历list中的数据库,一直到能连接上为止。
(DESCRIPTION_LIST=
(LOAD_BALANCE=off)
(FAILOVER=on)
(DESCRIPTION =(CONNECT_TIMEOUT=5)(TRANSPORT_CONNECT_TIMEOUT=3)(RETRY_COUNT=10)
(ADDRESS_LIST =
(ADDRESS = (PROTOCOL = TCP)(HOST = localhost)(PORT = 1521))
(CONNECT_DATA =
(SERVICE_NAME = myapp1)
(DESCRIPTION =(CONNECT_TIMEOUT=5)(TRANSPORT_CONNECT_TIMEOUT=3)(RETRY_COUNT=10)
(ADDRESS_LIST =
(ADDRESS = (PROTOCOL = TCP)(HOST = otherIP)(PORT = 1521))
(CONNECT_DATA =
(SERVICE_NAME = myapp2)
这种方式需要注意的地方:
1.jdbc必须走oci的方式,如果为jdbc:thin+tns方式,则会出现
Exception in thread "main" java.lang.ArrayIndexOutOfBoundsException: 545 at oracle.net.nl.NVTokens.parseTokens(Unknown Source) at oracle.net.nl.NVFactory.createNVPair(Unknown Source)
其原因在于jdbc的driver本身无法识别这种格式的tns内容。
此时即使以jdbc:thin+tns的方式访问其他正常的tns也会一样抛出这个错误,因为这导致了jdbc根本无法正确解析整个tnsnames.ora文件。
而jdbc:oci实际上负责解析tnsnames.ora和处理通信的是依赖oci.lib,因此就不存在这个问题。
2.这种配置适用于任何依赖oci通信的客户端,包括oci,occi,一些基于它们的wrap库,以及pl/sql developer此类的工具软件。
3.注意如果连接的数据库组属于manually switch的模式,而不是fail down导致的切换,比如tns中的a数据库是mount状态,b是primary,而tns的列表顺序是先a后b,则会出现尽管客户端连a时,抛出ORA-0133错误,但是不会按顺序去尝试连接b。
原因是在处理这个链接时,oci客户端会尝试通过listener和service建立连接。
如果listener是关闭的,或者客户端能连上listener但是找不到对应service,则都会尝试连接处于第二个的b,但是如果通过listener找到了对端的service,只是无法建立连接(如数据库处于mount状态),则此时不会尝试连接b,而直接会以抛出
ORA-0133:ORACLE initialization or shutdown in progress
终止连接尝试。
所以在使用这种tns的时候要确保通过tns列表能访问到的所有数据库都不会一直处于mount状态,否则连接它会打断对后面正常open数据库的连接尝试。
这也是为何手动切换的dataguard数据库,客户端不能依赖这种tns配置方法做自动切换,因为手动切换的dataguard数据库状态肯定是一个open一个mount,如果mount处于tns的列表靠前的位置,在连接它失败后会抛出ORA-0133异常阻止客户端尝试连接正常open的那个数据库。
浏览: 59862 次
来自: 上海
insertArray()
关于批量绑定OCI_LONG,OC ...
看输出似乎是没找到编译器,编译前scons的脚本会做很多预检验 ...
0sconC:\mongodb\mongodb-1.8&amp ...
(window.slotbydup=window.slotbydup || []).push({
id: '4773203',
container: s,
size: '200,200',
display: 'inlay-fix'

我要回帖

更多关于 hp service guard 的文章

 

随机推荐