请教ESXi连多台存储,LUN ID两台相同设备比较标准的问题

从ESXi 主机卸载 LUN 或分离数据存储设备
我的图书馆
从ESXi 主机卸载 LUN 或分离数据存储设备
按Esc退出全屏模式2 贡献值14.4K 大小&
发表评论:
喜欢该文的人也喜欢EMC Community Network - DECN: 如何在VMware ESXi 5中添加iSCSI存储
My Account
Find Communities by: Category | Product
如何在VMware ESXi 5中添加iSCSI存储&转载请在文首保留原文出处: 介绍&&&&&& iSCSI是构建SAN网络的主流协议之一。iSCSI允许用户使用旧有的、管理员已经非常熟悉的以太网资源来构建IP存储网络。本文将介绍如何将VNX的LUN以iSCSI的方式添加到VMware ESXi 5.x主机中。更多信息&配置VNX的iSCSI端口:&&&&&& 首先进入System & Hardware & Storage Hardware & SP A (SP B) & IO Modules & Slot & Port # & Properties,完成对阵列端iSCSI端口的配置。&&&& &&&&& 需要注意的是iSCSI IP地址最好与SP管理IP地址在不同的网段。更多对于VNX、CLARiiON iSCSI端口配置注意事项请参考:&配置ESXi iSCSI HBA或Software Initiator:&&&&&& 我们以Software iSCSI Adapter为例。1.添加用于iSCSI存储的VMkernel 端口登录vSphere Client & ESX Host & Configuration & Networking & vSwitch & Properties & Add & VMkernel&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&& 2.添加iSCSI Storage Adapter (Software Initiator)&&&&&&&&&&&&&&&&&&& 3.Properties & Dynamic Discovery & Add,输入VNX iSCSI端口IP地址(或对应的DNS域名)&&&&&&&&&&&&&&&&&&& 4.Rescan后发现存储信息&&&&&&&&&&&&&&&&&&& &VNX上创建LUN和Storage Group:&&&&&& VNX上创建RAID Group、LUN和Storage Group的过程这里就不细讲了。大致内容可以参考之前的文档:&&&& &ESXi上Rescan All后添加存储LUN并创建VMFS文件分区:&1.进入vSphere Client & ESX Host & Configuration & Storage,点击Rescan All&&&&&&&&&&&&&&&&&&& 2.点击Add Storage&&&&&&&&&&&&&&&&&&& &&&&&&&&&&&&&&&&&&& 3.选择VMFS版本、Datastore名称、可用空间(Capacity)后完成配置&&&&&&&&&&&&&&&&&&& 参考&EMC技术白皮书《iSCSI SAN Topologies》EMC VNX My Documents,ESX Server 5i主机添加文档应用于&ESXi 5、VNX、CLARiiON
电子邮件地址
Email Address
(必填项,将不会发布)
您确定要删除此文档?
Storage CategoriesStorage Product FamiliesConverged Infrastructure CategoriesConverged Infrastructure Product FamiliesData Protection CategoriesData Protection Product FamiliesDetect, investigate, and respond to advanced threats. Confirm and manage identities. Ultimately, prevent IP theft, fraud, and cybercrime.Explore products and solutions from RSA.Modernize, automate and transform your business.Let’s talk about your IT transformation.We can help.Accelerate your business and IT transformation with cloud, big data, and technology consulting and services.Let’s talk about your IT service needs.Gain insights and expertise on the topics shaping IT Transformation—visit InFocus.Drive your business to greater success. Locate partners—or learn about becoming one.Partner with Dell EMC today.Keep up with the news, jobs, and innovations in IT transformation from Dell EMC.176 South StreetHopkinton, MA 01748United States基于VMware的超融合, 解析vSAN与SmartX ZBS 的优劣差异
在企业级IT领域从业多年,最近越来越多地听到圈内人谈论起超融合技术的种种好处。的确,超融合技术已越来越走向成熟,带来的价值也逐渐凸显。它可靠性高,资源消耗低,尤其是运维部署非常便捷。在企业基础架构领域,“该不该用”超融合产品不是最大的问题,该考虑的反而是“用哪种”超融合产品。
超融合的本质是使用通用硬件,用软件定义来实现 IT 基础架构的计算、存储、灾备等各项服务,并将这些服务都集成到统一的平台上。但是,不同超融合厂商的产品其背后的技术和实现方式也有一定差异。企业在部署超融合时,还需要针对自己的特点和需求,来选择最适合自己的架构。
举例来说,目前市场上主流的超融合产品主要有国外的Nutanix、VMWare vSAN 和国内的 SmartX ZBS,在虚拟化计算,产品运维,存储网络的管理上他们各有千秋,性能特点上也各有所长。 Nutanix比较被业内人士熟知,并且和SmartX ZBS的优劣相似,所以这篇文章主要来对比下VMWare vSAN 和 SmartX ZBS。
一. vSAN和SmartX ZBS的优劣对比
1. vSAN美中有不足
VMware vSAN 是 vSphere 原生软件定义的存储平台,可帮助客户向超融合基础架构 (HCI) 转变,降低 IT 成本并为未来变革准备敏捷解决方案。
它的优势主要有:
1)vSAN 与 ESXi 结合紧密,部署比较方便,和 ESXi 一次部署完成;
2)凭借 VMware vSphere 优良生态的先天优势,vSAN 推出不少相关的生态合作方案;
3)vSAN 获得 ESXi 内核级别的支持,运行效率高,能输出不俗的性能。
但同时,vSAN也有一些美中不足,比如:
1)无法支持多 hypervisor 环境
随着服务器虚拟化技术的成熟,多hypervisor环境越发常见,这有助于分散风险、控制成本。很多情况下,单一的hypervisor难以满足需求。
然而,vSAN只支持 VMware ESXi一种 hypervisor。这意味着,一旦用户选用 vSAN,就失去了选择多hypervisor的自由。
2)与 ESXi 耦合度高且兼容版本有限
vSAN 是内嵌在 ESXi 内核,二者的耦合度非常高,而目前 vSAN 的版本迭代速度还是远高于后者。
如果用户需要升级 vSAN (vSAN6.2 升级6.5),那么就必需同步升级 ESXi 版本了(6.0 u3 升级6.5)。存储软件的迭代影响虚拟化软件的版本做频繁的升级,这对于生产环境来说,不太友好。
3)vSAN 引起 VMware HA 的限制
启用 vSAN 后,HA 心跳网络会从管理网络切换至存储网络。
由于 HA 的心跳网络当开启 vSAN 后心跳流量会自动从管理网络切换至存储网络,当存储网络故障,无法检测存储心跳,系统会触发 VMware HA 执行导致虚拟机重启与迁移。
但本质上 vSAN 是提供存储服务的,而 ESXi 提供的是计算和网络相关服务,而启用 vSAN 后,HA 功能却被紧耦合了,一旦存储网络或者是 vSAN 出问题了,就只能重启 VM 了,即使 ESXi 还是正常的情况下。
4)vSAN 无法支持 MSCS 和 WSFC
vSAN 6.5 版本依然没有对 MSCS(Microsoft Cluster Services)和 WSFC(Windows Server Failover Clustering)支持。
如果用户希望在 VMware vSphere 上运行 Microsoft SQL Server 或者 Windows Server 文件服务器集群等,就没法通过 vSAN 支持了。
2. SmartX ZBS 有差异化优势
SmartX ZBS 来自国内顶尖超融合厂商SmartX,基于 VMware vSphere 超融合部署,适用度更强,让IT管理更直接、更高效。其差异化的优势体现在以下几方面:
1)松耦合,更灵活
SmartX Halo 是一款支持用户构建多 hypervisor 的超融合软件套件。SmartX ZBS 是其中核心组件之一,可以为 VMwarevSphere 提供分布式存储服务。
SmartX ZBS与VMware vSphere松耦合,两者的升级互相独立,无需“被迫升级”。
2)不中断,更稳定
SmartX ZBS 支持精细化的高可用功能,当存储网络发生故障时,SmartX ZBS 支持自动把存储网络链路重定向到业务网络中,临时充当存储数据传输的链路,不会触发VMware HA功能,主机上的虚拟机业务并不会发生中断。
SmartX ZBS 与 VMware ESXi 也是松耦合,这使得 HA机制更加灵活,即便 SCVM(SmartX Controller Virtual Machine)故障无法提供存储服务,只要 ESXi 本身并没有故障,SmartX 会触发IO重定向功能,保障存储任务持续有效完成。
由此不难想象,SmartX ZBS 能提供更佳的用户体验。打个比方:当有个传菜工病了,vSAN 会直接选择关店,不再为客人提供服务;而SmartX ZBS 则更“聪明”——从其他分店调用传菜工,不影响客人就餐。
3)可通过提供 iSCSI Lun 为 Microsoft SQL Server 故障转移集群提供支持。
不过SmartX ZBS 由于不是vSphere 原生软件定义的存储平台,所以也会有一些劣势,比如:
1)部署略复杂一些,需要引入 SCVM 存储控制器虚机;
2)对最新版本的 vSphere 软件支持会略有延时;
3)无法通过 vCenter 界面统一精细化管理 SmartX ZBS 功能,需要切换至 SmartX WEB 管理界面进行精细管理。
因此,对比两款产品的优劣不难看出,除vSAN之外,SmartX ZBS 也拥有其较为显著的优势,是一款很出色的基于VMware的超融合产品。
二. 如何向ZBS架构迁移?
SmartX 基于VMware vSphere超融合部署,主要方式是在裸金属服务器上部署VMware ESXi,而 SCVM 则部署在 VMware ESXi 上,SCVM 实质上是一台安装有 SmartX Halo 超融合套件的虚拟机,它通过硬件透传技术最大限度避免经过 ESXi 虚拟化的性能损耗,直接管理服务器的硬盘资源(包括 SSD固态盘和 HDD机械盘)。
多台 SCVM 之间以万兆网络互联,通过内置的 SmartX ZBS 分布式存储软件整合存储资源构建成统一存储池,然后使用 NFS 协议挂载到 VMware ESXi 作为datastore 提供存储服务。
2. VAAI 支持
SmartX ZBS 是通过 NFS 协议为 VMware ESXi 提供 Datastore ,并支持 VAAI 存储插件为 datastore 提供精简置备以及加速功能。VAAI 存储插件支持将 VMware 对虚拟机执行的快照、克隆等存储类操作直接透传到 SmartX ZBS 存储底层执行,更高效地执行和实现相关操作。
三. 成功案例
vSAN和SmartX ZBS在业内均已得到企业级用户的认可,而SmartX ZBS在头部用户京东方和碧生源的部署均得到好评。
京东方科技集团股份有限公司(BOE)是全球最大的手机屏幕供应商之一,其极高的市场占有率背后离不开他们对研发的投入。
SmartX Halo 为京东方提供了一套基于超融合的研发虚拟桌面解决方案,该方案采用了 Citrix Xendesktop 虚拟桌面软件,使用 SmartX ZBS+ VMware vSphere 的超融合基础架构。
这套方案有效解决以往研发虚拟桌面面临的棘手问题,其中包括:编译工作对桌面响应速度要求高,规模化的虚拟桌面扩展带来的成本与维护问题。
碧生源控股有限公司为中国保健功能茶产品的领先企业。碧生源原有 IT 基础架构已经在使用 VMware 服务器虚拟化运行生产相关业务,经过严格考察以及对未来架构趋势的考虑,最终采用了 SmartX ZBS+ VMware vSphere 的超融合基础架构解决方案,很好地兼容 VMware vSphere 虚拟化平台,同时为企业实现基础架构的转型。
责任编辑:
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
今日搜狐热点check-circle-line
exclamation-circle-line
close-line
ESXi 6.5 Update 1 | 2017 年 7 月 27 日 | ISO 内部版本 5969303 请查看发行说明以了解新增内容及更新。
发行说明内容
本发行说明包含以下主题:
ESXi 6.5 Update 1 版本包含下列新增功能。
如果更喜欢使用 Update Manager 升级 ESXi 和 vSAN 堆栈,现在可以通过与 vSphere Update Manager 集成来实现 vSAN 软件升级。这提供了一个统一的通用工作流。有关详细信息,请参见。
驱动程序更新:
Cavium qlnativefc 驱动程序
VMware nvme 驱动程序
支持 Lewisburg 10G 网卡的 Intel i40en 驱动程序
支持 Lewisburg 1G 网卡的 Intel ne1000 驱动程序
Intel igbn 驱动程序
Intel ixgben 驱动程序
Broadcom ntg3 驱动程序
ESXi 6.5 的早期版本
各个版本的发行说明中均描述了 ESXi 6.5 的功能和已知问题。ESXi 6.5 的早期版本的发行说明包括:
有关兼容性、安装、升级、产品支持注意事项和功能的说明,请参见 。
VMware vSphere 6.5 提供以下语言的版本:
VMware vSphere 6.5 的组件(包括 vCenter Server、ESXi、vSphere Web Client 和 vSphere Client)不接受非 ASCII 输入。
ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性
详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 以了解有关受支持的管理和备份代理的信息。
vSphere Web Client 及 vSphere Client 与 vCenter Server 打包在一起。
ESXi 的硬件兼容性
要查看与 vSphere 6.5 Update 1 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看中关于 ESXi 6.5 的信息。
ESXi 的设备兼容性
要确定哪些设备与 ESXi 6.5 兼容,请查看中关于 ESXi 6.5 的信息。
ESXi 的客户机操作系统兼容性
要确定哪些客户机操作系统与 vSphere 6.5 兼容,请查看中关于 ESXi 6.5 的信息。
ESXi 的虚拟机兼容性
ESXi 6.5 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 6.5 上使用此类虚拟机,请升级虚拟机兼容性。 请参见文档。
产品和支持注意事项
提供了有关所有受支持和不受支持产品的详细信息。此外,查看 也可以了解有关“标准技术支持有效期”、“技术指导有效期”和“可用性有效期”的更多信息。
VMware 宣布停止使用第三方虚拟交换机 (vSwitch) 程序,并计划在 vSphere 6.5 Update 1 之后的版本中弃用第三方交换机使用的 VMware vSphere API。后续的 vSphere 版本将完全移除第三方 vSwitch API,第三方 vSwitch 将不再运行。有关详细信息,请参见。
本版本中包含的修补程序
本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见
包含以下各公告:
更新版本 包含以下各公告:
包含以下映像配置文件:
更新版本 包含以下映像配置文件:
已解决的问题
已解决的问题分为以下几组。
Auto Deploy
ESXi 主机从 Auto Deploy 执行无状态引导时会断开网络连接如果管理 vmkernel 网卡具有静态 IP 并且连接到分布式虚拟交换机,从 Auto Deploy 执行无状态引导时,ESXi 主机可能会断开网络连接。& 本版本已解决该问题。
CIM 和 API 问题
13G DDR4 内存模块在 vCenter Server 中的“硬件运行状况”页面显示,状态为“未知”&Dell 13G 服务器使用 DDR4 内存模块。这些模块在 vCenter Server 中的“硬件运行状况”页面显示,状态为“未知”& 本版本已解决该问题。
为新连接的 USB 键盘分配美式默认布局 当键盘配置了美式默认布局以外的其他布局,并且稍后从 ESXi 主机上拔下再重新插上时,将为新连接的键盘分配美式默认布局而不是用户选定的布局。& 本版本已解决该问题。&
vmswapcleanup 插件无法启动vmswapcleanup jumpstart 插件无法启动。syslog 包含以下行:& jumpstart[XXXX]: execution of '--plugin-dir /usr/lib/vmware/esxcli/int/ systemInternal vmswapcleanup cleanup' failed : Host Local Swap Location has not been enabled& 本版本已解决该问题。
SNMP 代理报告的 ifOutErrors 和 ifOutOctets 计数器值有误简单网络管理协议 (SNMP) 代理报告的 ifOutErrors 和 ifOutOctets 计数器值相同,但这两个值本应不同。& 本版本已解决该问题。
注册具有硬件版本 3 的虚拟机时,ESXi 会断开与 vCenter Server 的连接尽管 ESXi 主机不再支持运行硬件版本 3 的虚拟机,但它允许注册这些旧版虚拟机,以便将其升级到更新的受支持版本。近期回归导致 ESXi hostd 服务在注册过程中断开与 vCenter Server 的连接。这会阻止虚拟机成功注册。& 本版本已解决该问题。
虚拟机自动关闭,并显示“MXUserAllocSerialNumber: 锁定太多 (MXUserAllocSerialNumber: too many locks)”错误在正常的虚拟机操作中,VMware Tools(版本 9.10.0 和更高版本)服务创建 vSocket 连接,以便与 ESXi 主机交换数据。当建立了大量此类连接时,ESXi 主机可能会用尽锁定序列号,导致虚拟机自动关闭并显示 MXUserAllocSerialNumber: 锁定太多 (MXUserAllocSerialNumber: too many locks) 错误。如果已经采用了知识库文章 中的解决方法,请移除以下行,重新启用通过 vSockets 建立的 Guest RPC 通信:guest_rpc.rpci.usevsocket = "FALSE"& 本版本已解决该问题。
当多个用户登录到 Windows 终端服务器虚拟机时,ESXi 6.5 上的虚拟机会崩溃当有许多用户登录时,在 ESXi 6.5 上运行 VMware Tools 10.1.0 的 Windows 2012 终端服务器会停止响应。& vmware.log 将显示类似以下内容的消息& T02:03:24.921Z| vmx| I125: GuestRpc: Too many RPCI vsocket channels opened. T02:03:24.921Z| vmx| E105: PANIC: ASSERT bora/lib/asyncsocket/asyncsocket.c:5217 T02:03:28.920Z| vmx| W115: A core file is available in "/vmfs/volumes/515c94fa-d9ff4c34-ecd3-001b210c52a3/h8- ubuntu12.04x64/vmx-debug-zdump.001" T02:03:28.921Z| mks| W115: Panic in progress... ungrabbing& 本版本已解决该问题。
vSphere Web Client 无法更改 Syslog.global.logDirUnique 选项 当使用 vSphere Web Client 尝试更改 Syslog.global.logDirUnique 选项的值时,此选项灰显,无法修改。& 本版本已解决该问题。
激活 iodm 和 vmci jumpstart 插件可能会在 ESXi 引导期间失败ESXi 主机引导期间,jumpstart 日志中会显示与执行 jumpstart 插件 iodm 和 vmci 有关的错误消息。& 本版本已解决该问题。
EnterMaintenanceMode 任务会忽略大于 30 分钟的超时值进入维护模式会在 30 分钟后超时,即使指定的超时值大于 30 分钟。 本版本已解决该问题。
即使在主机配置文件文档中禁用所有 NAS 存储,主机配置文件合规性也会失败,并且会移除现有数据存储或者添加新数据存储在从引用主机提取的主机配置文件文档中禁用所有 NFS 数据存储时,主机配置文件的修复可能会失败并显示合规性错误,而且修复期间会移除现有数据存储或者添加新数据存储。 本版本已解决该问题。
收集性能快照时,ESXi 主机可能会失败并显示紫色诊断屏幕已释放数据结构后,通过 vm-support 收集性能快照时,由于需要调用内存访问,ESXi 主机可能会失败并显示紫色诊断屏幕。 将显示类似于以下内容的错误消息: @BlueScreen: #PF Exception 14 in world 75561:Default-drai IP 0xxxxxxxxxxxxaddr 0xxxxxxxxxxxx
PTEs:0xXXXXXXXXXXXXX;0xYYYYYYYYYYYYYY;0xZZZZZZZZZZZZZZ;0x0;
[0xxxxxxxxxxxx]SPLockIRQWork@vmkernel#nover+0x26 stack: 0xxxxxxxxxxxx
[0xxxxxxxxxxxx]VMKStatsDrainWorldLoop@vmkernel#nover+0x90 stack: 0x17
本版本已解决该问题。
网络连接问题
配置为使用 EFI 固件的虚拟机无法在某些 DHCP 环境中进行 PXE 引导。 如果 DHCP 环境通过 IP 单播来做出响应,则尝试进行 PXE 引导时配置为使用 EFI 固件的虚拟机将无法获取 IP 地址。EFI 固件无法接收 IP 单播发送的 DHCP 回复。 本版本已解决该问题。
为客户机 VLAN 配置禁用 VLAN 卸载(提取 VLAN 标记)时,VLAN 接口之间的 ping 命令可能会失败如果数据包转发到多个端口(例如,广播数据包),原始数据包缓冲区则可以在多个目标端口之间共享。如果 VLAN 卸载已禁用且您修改了原始数据包缓冲区,那么 VLAN 标记将首先插入到数据包缓冲区,然后再转发到客户机 VLAN。另一个端口将检测到数据包损坏并丢弃数据包。& 本版本已解决该问题。&
将 ESXi 6.5 主机加入 Active Directory 域失败并显示“操作已超时 (Operation timed out)”错误如果 ESXi 6.5 主机仅使用 IPv4 地址,但 Active Directory 域具有 IPv6 设置或 IPv6 和 IPv4 混合设置,那么该主机加入该域将失败,且在返回操作已超时 (Operation timed out) 错误之前,进程可能有一小时不响应。& 本版本已解决该问题。&
由于 igb 本机 Linux 驱动程序对网卡速度/双工设置只支持自动协商模式,在物理交换机上配置全双工会引发双工不匹配问题 如果在 ESXi 主机上使用 igb 本机驱动程序,此驱动程序始终以自动协商速度和双工模式工作。连接的这一端无论设置什么配置,都不会应用到 ESXi 端。如果手动将物理交换机设置为全双工模式,自动协商支持会引发全双工不匹配问题。 本版本已解决该问题。
如果执行全新 ESXi 主机安装,当第一个物理网卡链路状态为关闭时,可能没有网络连接默认情况下,每个 ESXi 主机都有一个虚拟交换机,即 vSwitch0。在安装 ESXi 期间,选择第一个物理网卡作为 vSwitch0 的默认上行链路。如果网卡链接状态为关闭,ESXi 主机可能没有网络连接,尽管其他网卡链路状态为打开并且可以访问网络。& 本版本已解决该问题。
使用即时克隆技术的虚拟桌面基础架构 (VDI) 池中的虚拟机 (VM) 失去与 Guest Introspection 服务的连接使用即时克隆的现有虚拟机和新虚拟机(无论是否使用即时克隆创建)都将失去与 Guest Introspection 主机模块的连接。因此,虚拟机将不受保护且新的 Guest Introspection 配置无法转发到 ESXi 主机。此外,vCenter Server UI 中也会显示客户机 introspection 未就绪 (Guest introspection not ready) 警告。& 本版本已解决该问题。
使用 IPv6 mld 时,ESXi 主机可能会失败并在关机时显示紫色屏幕使用 IPv6 mld 时,由于 tcpip 堆栈中存在争用情况,ESXi 主机可能会失败并显示紫色屏幕。& 本版本已解决该问题。
ESXi 主机重新连接到 vCenter Server 时可能会停止响应如果将 ESXi 主机从 vCenter Server 断开连接且该主机上的部分虚拟机使用 LAG,则在 vCenter Server 端上重新创建相同 LAG 后将 ESXi 主机重新连接到 vCenter Server 时可能会停止响应,您可能会看到类似于以下内容的错误:& 0xaeb0:[0xc]LACPScheduler@ # +0x3c stack: 0x417fcfa116e1aed0:[0xa26]Net_TeamScheduler@vmkernel#nover+0x7a stack: 0xc 0xaf30:[0x4]TeamES_Output@#+0x410 stack: 0x 0xafb0:[0xa7]EtherswitchPortDispatch@#+0x633 stack: 0x0& 本版本已解决该问题。
ESXi 主机可能会失败并显示紫色屏幕和“自旋锁计数已超出 (refCount) - PCPU 可能出现死锁 (Spin count exceeded (refCount) - possible deadlock with PCPU)”错误当您在以下情况下重新引导 ESXi 主机时,ESXi 主机可能会失败并显示紫色屏幕和自旋锁计数已超出 (refCount) - PCPU 可能出现死锁 (Spin count exceeded (refCount) - possible deadlock with PCPU) 错误:&
在 NSX 环境中使用 vSphere Network Appliance (DVFilter)
在 DVFilter 控制下使用 vMotion 迁移虚拟机
本版本已解决该问题。
使用 ee 虚拟网卡的虚拟机 (VM) 可能存在网络连接问题对于使用 ee 虚拟网卡的虚拟机,ee 驱动程序指示 ee vmkernel 模拟跳过描述符(传输描述符地址和长度为 0),而这可能会失去网络连接。 本版本已解决该问题。&
VMkernel 日志包括一个或多个“Couldn't enable keep alive”警告 在 VMware NSX 和合作伙伴解决方案通过 VMCI 套接字 (vsock) 进行通信期间,出现 Couldn't enable keep alive 警告。VMkernel 日志会立即忽略这些重复的警告,因为可以将其放心地忽略。& 本版本已解决该问题。
具有准虚拟 RDMA 设备的虚拟机在生成快照操作或 vMotion 迁移期间变得无法访问具有准虚拟 RDMA (PVRDMA) 设备的虚拟机运行 RDMA 应用程序与对等队列对通信。如果 RDMA 应用程序试图与不存在的对等队列编号通信,PVRDMA 设备可能会无限期地等待对等队列的响应。因此,如果生成快照操作或迁移期间 RDMA 应用程序仍在运行,其结果是虚拟机将变得无法访问。 本版本已解决该问题。
客户机 VMkernel 应用程序可能会收到未发信号的快速注册工作请求的意外完成条目具有活动 RDMA 上行链路的主机上的两个虚拟机之间的 RDMA 通信有时会在客户机 VMkernel 应用程序中触发伪完成条目。客户机的内核级 RDMA 上层协议 (ULP) 发出的未发信号的快速注册工作请求会错误地触发完成条目。这可能会导致完成队列在内核 ULP 中溢出。& 本版本已解决该问题。
使用准虚拟 RDMA (PVRDMA) 设备时,您可能会因为不可用设备处于链路关闭状态而一直等待,直到客户机操作系统重新加载 PVRDMA 客户机驱动程序为止如果在支持 PVRDMA 设备的客户机操作系统上安装 PVRDMA 驱动程序,PVRDMA 驱动程序可能会在打开客户机操作系统的电源时无法正确加载。您可能会因为不可用设备处于链路关闭状态而一直等待,直到手动重新加载 PVRDMA 驱动程序为止。& 本版本已解决该问题。
VMware NetQueue 负载平衡器中的 pNIC 断开连接和连接事件可能会导致出现紫色屏幕如果 pNIC 断开连接后又连接到虚拟交换机,VMware NetQueue 负载平衡器必须标识此情况,并暂停正在进行的平衡工作。在某些情况下,负载平衡器可能不会检测此情况,而访问错误的数据结构。因此,可能会显示紫色屏幕。& 本版本已解决该问题。
netqueue 负载平衡器可能会导致 ESXi 主机停止响应 对于延迟敏感型虚拟机,netqueue 负载平衡器会尝试预留独占 Rx 队列。如果驱动程序提供队列抢占机制,netqueue 负载平衡器则使用此机制为延迟敏感型虚拟机获取独占队列。随后 netqueue 负载平衡器一直持有锁定并对驱动程序执行队列抢占回调。使用某些驱动程序时,这可能会导致 ESXi 主机显示紫色屏幕,尤其是在驱动程序实现涉及休眠模式时。& 本版本已解决该问题。
如果重新引导集成式管理模块 (Integrated Management Module, IMM),在某些服务器上在 IMM 中集成的 USB 网络设备可能会停止响应在某些服务器上,USB 网络设备集成到 IMM 或 iLO 中,以便管理服务器。使用 vSphere Web Client、IMM 或 iLO 命令重新引导 IMM 时,USB 网络设备上的事务会丢失。& 本版本已解决该问题。
vmnic 的链路状态输出不反映实际物理状态更改 vminc 的物理链路状态时,例如拔下线缆或关闭交换机端口,则 esxcli 命令生成的输出可能会在基于 Intel 82574L 的网卡 (Intel Gigabit Desktop CT/CT2) 上显示错误的链路状态。您必须手动重新启动网卡,才能获取真实的链路状态。& 本版本已解决该问题。
如果 ntg3 驱动程序用于 Broadcom NetXtreme I 网卡,网络连接可能会丢失&使用 ntg3 驱动程序的网卡可能会意外失去连接。网络连接无法还原,直到您重新引导 ESXi 主机为止。受影响的设备包括 Broadcom NetXtreme I 、、5725 和 5727 以太网适配器。此问题与虚拟机(例如(但不限于)F5 BIG-IP 虚拟设备)发送的某些格式错误的 TSO 数据包有关。 ntg3 4.1.2.0 驱动程序可以解决该问题。& 本版本已解决该问题。
当您关闭 IPv6 支持时,ESXi 主机可能会失败并显示紫色屏幕当您全局关闭 IPv6 支持并重新引导 ESXi 主机时,主机可能会失败并显示紫色屏幕。 本版本已解决该问题。
当您在 ESXi 6.0 和 ESXi 6.5 主机之间通过 Storage vMotion 迁移虚拟机时,ESXi 主机可能会停止响应 通过 Storage vMotion 迁移虚拟机期间,如果客户机内存预分配正在进行,vmxnet3 设备会尝试访问客户机操作系统的内存。这会造成无效的内存存取和 ESXi 6.5 主机失败。 本版本已解决该问题。
libcurl 库更新 ESXi userworld libcurl 库已更新至 7.53.1 版本。
NTP 软件包更新 ESXi NTP 软件包已更新至 4.2.8p10 版本。
OpenSSH 版本更新 OpenSSH 版本已更新至 7.5p1 版本。
ESXi 上的 Likewise 堆栈不支持 SMBv2 Windows 2012 域控制器支持 SMBv2,而 ESXi 上的 Likewise 堆栈仅支持 SMBv1。在此版本中,已使 ESXi 上的 Likewise 堆栈支持 SMBv2。& 本版本已解决该问题。
不能使用密钥超过 2048 位的自定义 ESXi SSL 证书 在 vSphere 6.5 中,安全检测信号功能支持添加密钥恰好为 2048 位的 ESXi 主机证书。如果尝试添加 ESXi 主机证书或将 ESXi 主机证书替换为密钥超过 2048 位的自定义证书,主机会断开与 vCenter Server 的连接。vpxd.log 中的日志消息类似于以下内容: error vpxd[7FB5BFF7E700] [Originator@6876 sub=vpxCrypt opID=HeartbeatModuleStart-4b63962d] [bool VpxPublicKey::Verify(const EVP_MD*, const unsigned char*, size_t, const unsigned char*, size_t)] ERR error::rsa routines:INT_RSA_VERIFY:wrong signature length
warning vpxd[7FB5BFF7E700] [Originator@6876 sub=Heartbeat opID=HeartbeatModuleStart-4b63962d] Failed host: host-42, cert: (**THUMBPRINT_REMOVED**), signature : (**RSA_SIGNATURE_REMOVED**)
warning vpxd[7FB5BFF7E700] [Originator@6876 sub=Heartbeat opID=HeartbeatModuleStart-4b63962d] Received incorrect size for heartbeat Expected size (334) Received size (590) Host host-87 本版本已修复该问题。
libPNG 库更新libPNG 库已更新到 libpng-1.6.29。
OpenSSL 更新OpenSSL 软件包已更新到版本 openssl-1.0.2k。
Xorg 驱动程序升级Xorg 驱动程序升级包括以下更新:
libXfont 软件包已更新到 libxfont - 1.5.1
pixman 库已更新到 pixman - 0.35.1
libarchive 库更新libarchive 库已更新到 libarchive - 3.3.1。
SQLlite3 库更新SQLlite3 库已更新到 SQLlite3 - 3.17.0。
服务器配置
PCI 直通不支持 MMIO 超过 16 TB 且 MPN 超过 32 位的设备&PCI 直通不支持 MMIO 超过 16 TB 且 MPN 超过 32 位的设备。& 本版本已解决该问题。
使用 SSH 登录到 ESXi 主机要求重新输入密码如果将属于某个域的 ESXi 主机从 vSphere 5.5 升级到 6.5,则通过 SSH 连接到 ESXi 主机时,系统将提示您输入密码两次。 本版本已解决该问题。
主机配置文件部分发生有关 Security.PasswordQualityControl 的合规性错误当 PAM 密码配置文件中的 PAM 密码设置不同于高级配置选项 Security.PasswordQualityControl 时,在主机配置文件部分会显示有关 Security.PasswordQualityControl 的合规性错误。由于高级配置选项 Security.PasswordQualityControl 在本版本中对主机配置文件不可用,请使用密码 PAM 配置中的 Requisite 选项更改密码策略。& 本版本已解决该问题。
vpxd 服务可能会崩溃,阻止 vSphere Web Client 用户界面连接和更新 vCenter Server如果配置文件路径的 VMODL 对象中的必填字段未设置,在验证网络配置的应答文件期间可能会发生序列化问题,从而导致 vpxd 服务失败。 本版本已解决该问题。
/Power/PerfBias 的配置无法编辑无法设置 /Power/PerfBias 高级配置选项。任何将其设置为某个值的尝试都会返回一个错误。& 本版本已解决该问题。
将任何主机(ESXi 或 vCenter Server)加入 vSphere 6.5 域中的 Active Directory 都会导致服务失败vSphere 6.5 不支持非连续 Active Directory 域。在非连续命名空间中,计算机的主域名系统 (DNS) 后缀与该计算机所在的 DNS 域名不匹配。& 本版本已解决该问题。
在 ESXi VMKernel 日志中报告 XHCI 相关平台错误 在 ESXi VMkernel 日志中报告 XHCI 相关平台错误消息,例如 xHCI Host Controller USB 2.0 Control Transfer may cause IN Data to be dropped and xHCI controller Parity Error response bit set to avoid parity error on poison packet。& 本版本已解决该问题。&
ESXi 主机可能会停止响应,且无检测信号 NMI 状态 ESXi 主机可能会变得无响应,并在具有 OHCI USB 主机控制器的 AMD 计算机上显示 no heartbeat NMI 状态。& 本版本已解决该问题。&
修改已启用变更数据块跟踪 (Changed Block Tracking, CBT) 的虚拟磁盘的 IOPS 限制失败,并在日志文件中显示错误要为虚拟机定义存储 I/O 调度策略,可以通过修改 IOPS 限制为每个虚拟机磁盘配置 I/O 吞吐量。编辑 IOPS 限制时,如果已为虚拟机启用了 CBT,操作将失败并显示错误:调度参数更改失败 (The scheduling parameter change failed)。由于存在此问题,无法更改虚拟机的调度策略。“vSphere 近期任务”窗格中将显示错误消息。
您可以在 /var/log/vmkernel.log 文件中看到以下错误:
T21:01:56.788Z cpu0:136101)VSCSI: 273: handle 8194(vscsi0:0):Input values: res=0 limit=-2 bw=-1 Shares=1000
T21:01:56.788Z cpu0:136101)ScsiSched: 2760: Invalid Bandwidth Cap Configuration
T21:01:56.788Z cpu0:136101)WARNING: VSCSI: 337: handle 8194(vscsi0:0):Failed to invert policy
本版本已解决该问题。
在单个操作中热添加多个 VMware 准虚拟 SCSI (PVSCSI) 硬盘时,只有一个硬盘对客户机操作系统可见在单个操作中将两个或更多硬盘热添加到 VMware PVSCSI 控制器时,客户机操作系统只能看到其中一个硬盘。 本版本已解决该问题。
ESXi 主机可能会失败并显示紫色屏幕ESXi 主机可能会失败并显示紫色屏幕,因为多个多路径插件 (multipathing plugin, MPP) 尝试声明路径时出现争用情况。 本版本已解决该问题。
存储配置文件更改操作期间,从错误中恢复会导致配置文件 ID 损坏在存储配置文件更改操作期间,如果虚拟卷 VASA 提供程序返回错误,vSphere 会尝试撤消该操作,但在此过程中配置文件 ID 会遭到损坏。& 本版本已解决该问题。
vSphere Web Client 中为 VVol 数据存储显示的读或写延迟不正确vSphere Web Client 中为 VVol 数据存储显示的每台主机的读或写延迟不正确。& 本版本已解决该问题。
在 NFSCacheGetFreeEntry 期间,ESXi 主机可能会失败并显示紫色屏幕NFS v3 客户机不能适当地处理 NFS 服务器在文件属性中返回无效文件类型这一情况,从而导致 ESXi 主机失败并显示紫色屏幕。& 本版本已解决该问题。
您需要手动为新的纯存储 FlashArray 配置 SATP 规则对于纯存储 FlashArray 设备,您必须手动添加 SATP 规则以设置 SATP、PSP 和 IOPS。ESXi 中添加了新的 SATP 规则,针对所有纯存储 FlashArray 型号将 SATP 设置为 VMW_SATP_ALUA、将 PSP 设置为 VMW_PSP_RR 并将 IOPS 设置为 1。& 注意:对于无状态 ESXi 安装,如果应用了旧主机配置文件,则在升级后会覆盖新规则。 本版本已解决该问题。
由于 ESXi 6.5 中的内存分配故障,lsi_mr3 驱动程序和 hostd 进程可能会停止响应lsi_mr3 驱动程序从低于 4 GB 的地址空间分配内存。vSAN 磁盘可维护性插件 lsu-lsi-lsi-mr3-plugin 与 lsi_mr3 驱动程序相互通信。处理 storelib 中的 IOCTL 事件时,驱动程序可能会在内存分配期间停止响应。因此,lsu-lsi-lsi-mr3-plugin 可能会停止响应,而且 hostd 进程可能也会失败,甚至在重新启动 hostd 后也是如此。& 本版本已解决该问题,做法是更改了 lsi_mr3 驱动程序的 lsu-lsi-lsi-mr3-plugin 插件中的代码,将超时值设为 3 秒,以便获取设备信息来避免插件和 hostd 故障。
将现有或新虚拟磁盘热添加到 VVOL 数据存储上已启用 CBT(变更数据块跟踪)的虚拟机 (VM) 时,客户机操作系统可能会停止响应将现有或新虚拟磁盘热添加到 VVOL 数据存储上已启用 CBT 的虚拟机时,客户机操作系统可能会停止响应,直到热添加过程完成。虚拟机停止响应的时间取决于要添加的虚拟磁盘的大小。热添加完成后虚拟机将自动恢复。& 本版本已解决该问题。
使用 vSphere Storage vMotion 时,虚拟磁盘的 UUID 可能会更改在 vSphere Virtual Volumes 存储上使用 vSphere Storage vMotion 时,虚拟磁盘的 UUID 可能会更改。UUID 可标识虚拟磁盘,而更改的 UUID 会让虚拟磁盘显示为一个全新的不同磁盘。UUID 还对客户机操作系统可见,可能会导致驱动器会被错误地识别。& 本版本已解决该问题。
如果 LUN 取消映射在存储阵列端完成,ESXi 可能会停止响应 如果在存储阵列端对那些通过 Broadcom/Emulex 光纤通道适配器(驱动程序是 Ipfc)连接到 ESXi 主机的 LUN 执行 LUN 取消映射,ESXi 主机可能会停止响应,并让 I/O 一直运行。 本版本已解决该问题。
如果 VMFS-6 卷没有日志空间,ESXi 主机可能会变得不响应 打开 VMFS-6 卷时,它会分配一个日志块。成功分配后,系统会启动后台线程。如果卷上没有日志空间,则会在只读模式下打开,并且不启动后台线程。任何关闭该卷的意图都会导致系统尝试唤醒非共存线程。这会导致 ESXi 主机失败。 本版本已解决该问题。
如果在 ESXi 主机上运行的虚拟机有大容量 vRDM 且使用 SPC4 功能,ESXi 主机可能会失败并显示紫色屏幕当虚拟机通过 Get LBA Status 命令使用 SCP4 功能查询已连接的大容量 vRDM 的精简置备功能时,此命令的处理可能会在 ESXi 内核中运行很长时间,但不释放 CPU。较高的 CPU 使用率会导致 CPU 检测信号监视程序进程将该处理视为一个挂起进程,而且 ESXi 主机可能会停止响应。& 本版本已解决该问题。
如果 VMFS6 数据存储挂载在多个 ESXi 主机上,同时 disk.vmdk 具有从同一数据存储上的增加部分分配的文件块,ESXi 主机可能会失败并显示紫色屏幕VMDK 文件可能驻留在已挂载在多个 ESXi 主机(例如,2 个主机,ESXi host1 和 ESXi host2)上的 VMFS6 数据存储上。当 VMFS6 数据存储容量从 ESXi host1 增加,同时 VMFS6 数据存储又挂载在 ESXi host2 上时,disk.vmdk 具有从 ESXi host1 的 VMFS6 数据存储的增加部分分配的文件块。现在,如果从 ESXi host2 访问 disk.vmdk 文件,而且文件块从 ESXi host2 分配到 disk.vmdk 文件,ESXi host2 可能会失败并显示紫色屏幕。 本版本已解决该问题。
安装或升级后,某些多路径 LUN 将不可见如果 LUN 的路径在多路径情况下有不同的 LUN ID,那么 LUN 不会被 PSA 注册,而且最终用户不会看到它们。& 本版本已解决该问题。
驻留在 NFS 数据存储上的虚拟机可能会导致通过 Horizon View 执行的重构操作失败 受虚拟磁盘描述符写入到 NFS 数据存储的写入方式影响,Horizon View 中的重构操作可能因为驻留在 NFS 数据存储上的桌面虚拟机而失败并显示过时的 NFS 文件句柄 (stale NFS file handle) 错误。& 本版本已解决该问题。
由于 CPU 检测信号故障,ESXi 主机可能会失败并显示紫色屏幕&仅在 SEsparse 用于创建虚拟机快照和克隆的情况下,由于 CPU 检测信号故障,ESXi 主机可能会失败并显示紫色屏幕。使用 SEsparse 可能会导致 CPU 锁闭,并且在 VMkernel 日志中显示以下警告消息,随后显示紫色屏幕:& PCPU &cpu-num&&
didn't have a heartbeat for &seconds&&
*may* be locked up.
本版本已解决该问题。
禁用对虚拟卷数据存储上的内部 vSAN 元数据目录 (.upit) 的频繁查找。此元数据文件夹不适用于虚拟卷 对虚拟卷数据存储上的 vSAN 元数据目录 (.upit) 的频繁查找会影响其性能。.upit 目录不适用于虚拟卷数据存储。此更改会禁用对 .upit 目录的查找。& 本版本已解决该问题。
升级到 VMware ESXi 6.5.0 P01 或 6.5 EP2 后,Windows 虚拟机 (VM) 上可能会出现性能问题&在某些情况下,从客户机操作系统接收未对齐的取消映射请求时,可能会出现性能问题。根据未对齐的取消映射的大小和数量,当从客户机操作系统删除大量小文件(大小小于 1 MB)时可能会出现这种情况。& 本版本已解决该问题。
ESXi 5.5 和 6.x 主机运行 85 天后会停止响应ESXi 5.5 和 6.x 主机运行 85 天后会停止响应。在 /var/log/vmkernel 日志文件中,您会看到类似以下内容的条目:& YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved a PUREX IOCB woh oo YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved the PUREX IOCB. YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): sizeof(struct rdp_rsp_payload) = 0x88 YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674qlnativefc: vmhba2(5:0.0): transceiver_codes[0] = 0x3 YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): transceiver_codes[0,1] = 0x3, 0x40 YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Stats Mailbox successful. YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Sending the Response to the RDP packet YYYY-MM-DDTHH:MM:SS.833Z cpu58: 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)-------------------------------------------------------------- YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 00 00 00 00 00 00 04 00 01 00 00 10 YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) c0 1d 13 00 00 00 18 00 01 fc ff 00 00 00 00 20 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 88 00 00 00 b0 d6 97 3c 01 00 00 00 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)-------------------------------------------------------------- YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 00 00 00 80 00 00 00 01 00 00 00 04 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 00 01 00 00 00 00 00 0c 1e 94 86 08 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 13 ec 0e 81 00 51 00 01 00 01 00 00 00 04 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 04 00 00 01 00 02 00 00 00 1c 00 00 00 01 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 00 00 00 00 00 00 00 00 00 00 00 00 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 00 40 00 00 00 00 01 00 03 00 00 00 10 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 43 80 23 18 a8 89 50 01 43 80 23 18 a8 88 YYYY-MM-DDTHH:MM:SS.833Z cpu58:3 00 03 00 00 00 10 10 00 50 eb 1a da a1 8f 这是一个固件问题,而且当光纤通道 (Fibre Channel, FC) 交换机和热总线适配器 (Hot Bus Adapter, HDA) 之间的读取诊断参数 (Read Diagnostic Parameters, RDP) 失败 2048 次时,就会出现这种问题。HBA 适配器停止响应,而且虚拟机和/或 ESXi 主机可能会因此而失败。默认情况下,RDP 例行程序由 FC 交换机启动,且这种情况每小时发生一次,而这会导致在大约 85 天内达到 2048 次限制。& 本版本已解决该问题。
解决具有条带大小限制的 Intel 设备中的性能下降问题& 有些 Intel 设备(例如 P3700、P3600 等)对其固件或硬件有特定于供应商的限制。受此限制影响,跨条带大小(或边界)提供给 NVMe 设备的所有 IO 的性能都会受到严重影响。此问题可以通过驱动程序解决,方法是检查所有 IO,并在命令跨设备上的条带时拆分命令。 本版本已解决该问题。
移除启动控制器时的冗余控制器重置当控制器启动时,驱动程序可能会重置控制器两次(禁用、启用、禁用并最终启用)。此解决方法适用于早期版本的 QEMU 仿真器,但是它可能会使某些控制器的显示延迟。根据 NVMe 规范,只需一次重置,即禁用再启用控制器。本次升级可以移除启动控制器时的冗余控制器重置。& 本版本已解决该问题。
如果具有大型虚拟磁盘的虚拟机使用 SPC-4 功能,ESXi 主机可能会失败并显示紫色屏幕由于 CPU 锁定,ESXi 主机可能会停止响应和失败,并显示紫色屏幕和类似以下内容的条目。& 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]@BlueScreen: PCPU x: no heartbeat (x/x IPIs received) 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Code start: 0xxxxx VMK uptime: x:xx:xx:xx.xxx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Saved backtrace from: pcpu x Heartbeat NMI 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]MCSLockWithFlagsWork@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PB3_Read@esx#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PB3_AccessPBVMFS5@esx#nover+00xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3FileOffsetToBlockAddrCommonVMFS5@esx#nover+0xx stack:0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_ResolveFileOffsetAndGetBlockTypeVMFS5@esx#nover+0xx stack:0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_GetExtentDescriptorVMFS5@esx#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_ScanExtentsBounded@esx#nover+0xx stack:0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3GetFileMappingAndLabelInt@esx#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_FileIoctl@esx#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]FSSVec_Ioctl@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]FSS_IoctlByFH@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFsEmulateCommand@vmkernel#nover+0xx stack: 0x0 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSI_FSCommand@vmkernel#nover+0xx stack: 0x1 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSI_IssueCommandBE@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIExecuteCommandInt@vmkernel#nover+0xx stack: 0xb298e000 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PVSCSIVmkProcessCmd@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PVSCSIVmkProcessRequestRing@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PVSCSI_ProcessRing@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VMMVMKCall_Call@vmkernel#nover+0xx stack: 0xx 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VMKVMM_ArchEnterVMKernel@vmkernel#nover+0xe stack: 0x0 如果您的虚拟机的硬件版本为 13 并且将 SPC-4 功能用于大型虚拟磁盘,就会出现此问题。& 本版本已解决该问题。
Marvell 9230 ACHI 控制器上的 Marvell Console 设备不可用 根据内核日志,ATAPI 设备在 Marvell 9230 控制器的一个 AHCI 端口上公开。此 Marvel Console 设备是配置 Marvell 9230 AHCI 控制器的 RAID 的接口,可通过某些 Marvell CLI 工具使用。& 运行 esxcfg-scsidevs -l 命令后,配有 Marvell 9230 控制器的主机无法通过 Local Marvell Processor 显示名称检测 SCSI 设备。& 内核日志中的信息为: WARNING: vmw_ahci[XXXXXXXX]: scsiDiscover:the ATAPI device is not CD/DVD device& 本版本已解决该问题。&
SSD 拥堵可能导致多个虚拟机变得无响应根据工作负载和虚拟机数量,主机上的磁盘组可能会进入永久设备丢失 (PDL) 状态。这会导致磁盘组不接受更多 IO,导致其不可用,直至进行人工干预。 本版本已解决该问题。
在支持取消映射的数据存储上运行 HBR + CBT 时,ESXi 主机可能会失败并显示紫色屏幕允许未对齐取消映射请求的 ESXi 功能无法解释为何取消映射请求可能会在非阻塞环境中发生。如果取消映射请求未对齐,而且请求环境是非阻塞环境,则可能会导致紫色屏幕。非阻塞环境中的常见未对齐取消映射请求通常发生在 HBR 环境中。& 本版本已解决该问题。
ESXi 主机可能会断开与 VMFS 数据存储的连接由于 LVM 模块中的内存泄漏,您可以会看到 LVM 驱动程序在某些情况下会用尽内存,导致 ESXi 主机无法访问 VMFS 数据存储。 本版本已解决该问题。
受支持硬件问题
Intel I218 网卡在流量比较大的场景中频繁重置 在 NE1000 驱动程序中启用 TSO 功能时,由于 I218 硬件问题,I218 网卡会在流量比较大的场景中频繁重置。I218 网卡的 NE1000 TSO 功能应当禁用。& 本版本已解决该问题。
升级和安装问题
使用 vSphere Update Manager 将 dd 映像引导的 ESXi 主机升级到版本 6.5 的主要升级会失败&使用 vSphere Update Manager 将 dd 映像引导的 ESXi 主机升级到版本 6.5 的主要升级会失败,并显示无法在主机上执行升级脚本 (Cannot execute upgrade script on host) 错误。& 本版本已解决该问题。
在软件配置文件更新后,显示 ESXi 主机的先前软件配置文件版本,而且在 ISO 升级后,软件配置文件名称不会被标记为“已更新”在执行 esxcli software profile update 命令后,ESXi 主机的先前软件配置文件版本显示在 esxcli software profile get 命令输出中。此外,在 ISO 升级后,软件配置文件名称在 esxcli software profile get 命令输出中未被标记为已更新。& 本版本已解决该问题。
无法从 ESXi 6.5 主机收集 vm-support 包无法从 ESXi 6.5 主机收集 vm-support 包,因为使用 vSphere Web Client 在 ESXi 6.5 中生成日志时,选择要导出的特定日志文本框为空白。网络、存储、容错、硬件等选项也为空白。出现此问题是因为 /cgi-bin 的 rhttpproxy 端口有不同于 8303 的值。 本版本已解决该问题。
TPM 1.2 计算机上的安装在引导过程的早期挂起 在采用 TPM 1.2 芯片的系统上 ESXi 6.5 安装停止响应。如果 tbootdebug 被指定为命令行参数,最后的日志消息是:& Relocating modules and starting up the kernel... TBOOT: **************TBOOT ****************** TBOOT: TPM family: 1.2 本版本已解决该问题。
vSphere Update Manager 失败并显示 RuntimeError&如果 ImageProfile 模块包含适用于特定硬件组合的 VIB,那么主机扫描操作会失败并在 ImageProfile 模块中显示 RuntimeError。造成这种失败的原因是 Python 2 和 Python 3 之间的代码转换问题。& 本版本已解决该问题。
由于系统无法识别 USB 设备或为 USB 设备预留资源,ESXi 主机可能会失败并显示紫色屏幕在 X6-2、X5-2 和 X4-2 Oracle 服务器上引导 ESXi 主机时,ESXi 主机可能会失败并显示紫色屏幕,同时回溯追踪显示这是由 pcidrv_alloc_resource 故障造成的。出现此问题是因为系统无法识别 USB 设备或为 USB 设备预留资源。& 本版本已解决该问题。
vCenter Server、vSphere Web Client 和 vSphere Client 问题
安装适用于 Windows 的桌面 vSphere Client 并尝试连接到 ESXi 主机后,显示一条警告消息&桌面 vSphere Client 在 vSphere 6.5 中已被弃用且不再受支持。尝试连接到 ESXi 6.5 主机时,将显示以下警告消息:必需的客户端支持文件需要从服务器 "0.0.0.0" 检索并安装。单击运行安装程序或者保存安装程序。(The required client support files need to be retrieved from the server "0.0.0.0" and installed. Click Run the installer or Save the installer.) 在此情况下,请使用 VMware Host Client 执行主机管理操作。&
虚拟机管理问题
性能计数器 cpu.system 错误地显示 0(零)值系统错误地计算虚拟机的性能计数器 cpu.system。计数器值始终为 0(零)且从不改变,因此无法对它执行任何类型的数据分析。 本版本已解决该问题。
虚拟机由于活动内存下降可能变得无响应 如果在 ESXi 主机上运行的虚拟机活动内存降到 1% 以下并降至为零,则该主机可能开始回收内存,即便主机具有足够可用内存也是如此。 本版本已解决该问题。
虚拟机在快照整合期间停止响应快照整合期间可能会执行精确计算以确定执行整合所需要的存储空间。此精确计算需要很长时间才能完成,因此可能导致虚拟机停止响应。& 本版本已解决该问题。
预先分配的虚拟机的错误 NUMA 放置位置导致性能欠佳预先分配的虚拟机将在打开电源时分配其所有内存。然而,调度程序会为这种初始分配挑选错误的 NUMA 节点。特别是,NUMA 放置位置可能与 numa.nodeAffinity vmx 选项不一致。因此,客户机操作系统可能会遇到性能降级。& 配置了高延迟敏感度或直通设备的虚拟机通常预先分配。& 本版本已解决该问题。
虚拟机可能变得无响应生成虚拟机快照时,虚拟机可能变得无响应。& 本版本已解决该问题。
如果用时超过 5 分钟,vSphere Storage vMotion 可能会失败并显示一条错误消息 vSphere Storage vMotion 的目标虚拟机被虚拟机的定期配置验证错误地停止。用时超过 5 分钟的 vSphere Storage vMotion 会失败,并显示消息源检测到目标未能恢复 (The source detected that the destination failed to resume)。 ESXi 主机中的 VMkernel 日志包含消息 D: Migration cleanup initiated, the VMX has exited unexpectedly.Check the VMX log for more details.& 本版本已解决该问题。&
虚拟机管理堆栈不能正确地处理被指定为一般 FileBackingInfo 的备用文件,导致虚拟机无法被正确地重新配置如果直接使用 vSphere API 和使用一般 vim.vm.Device.VirtualDevice.FileBackingInfo 类而非磁盘类型特定备用类(例如 vim.vm.Device.VirtualDisk.FlatVer2BackingInfo、vim.vm.Device.VirtualDisk.SeSparseBackingInfo)指定磁盘备用文件的 ConfigSpec 启动虚拟机,那么在打开电源时在不同于虚拟机文件夹的文件夹中附加磁盘可能会失败。 本版本已解决该问题。
虚拟机 (VM) 的 vMotion 迁移将挂起一段时间随后失败,并显示超时 如果虚拟机含有占用过多内存的驱动程序(尤其是图形驱动程序)或应用程序,则会在虚拟机中创建粘滞页。当此类虚拟机将要通过 vMotion 迁移到另一台主机时,由于 I/O 计算挂起不正确,迁移过程将挂起并在随后失败。& 本版本已解决该问题。
使用整数值设置 extraConfig 选项的电源已打开虚拟机的重新配置操作可能会失败并显示 SystemError在下列情况下,重新配置操作会停止响应并显示 SystemError:&
已打开虚拟机的电源&
ConfigSpec 包含具有整数值的 extraConfig 选项&
SystemError 由 TypeMismatchException 触发,可在 ESXi 主机上的 hostd 日志中查看并显示以下消息:& Unexpected exception during reconfigure: (vim.vm.ConfigSpec) {
} Type Mismatch: expected:
N5Vmomi9PrimitiveISsEE, found: N5Vmomi9PrimitiveIiEE.&
本版本已解决该问题。&
删除虚拟机时不会从虚拟机文件夹中删除摘要 VMDK 文件 基于摘要 VMDK 文件创建链接克隆时,vCenter Server 会将摘要磁盘文件标记为不可删除。由于描述符文件中存在 ddb.deletable = FALSE 条目,因此当您删除相应的虚拟机时,不会从虚拟机文件夹中删除摘要 VMDK 文件。 本版本已解决该问题。
Virtual Volumes 问题
虚拟机存储配置文件名称中的非拉丁字符可能显示不正确 在传递到虚拟卷 VASA 提供程序之前,UTF-8 字符处理不当。因此,VASA 提供程序未识别或未正确处理或显示使用国际字符的虚拟机存储配置文件。& 本版本已解决该问题。
VMware HA 和 Fault Tolerance 问题
对于已启用 vSphere Fault Tolerance 的虚拟机,vSphere 客户机应用程序监控 SDK 失败在安装了 vSphere Guest Application Monitor 且受 vSphere HA 保护的虚拟机上启用 vSphere FT 后,vSphere 客户机应用程序监控 SDK 可能会失败。 本版本已解决该问题。
当容错辅助虚拟机 (VM) 无法打开电源且主机用尽内存时,ESXi 主机可能会失败并显示紫色屏幕当您为虚拟机启用容错且虚拟机的辅助虚拟机正在从内存不足的 ESXi 主机打开电源时,则辅助虚拟机电源无法打开,ESXi 主机可能会失败并显示紫色屏幕。& 本版本已解决该问题。
VMware Tools
安装 VMware Tools 时,客户机操作系统重新引导时无法清除 guestinfo.toolsInstallErrCode 变量如果安装 VMware Tools 要求完成重新引导,客户机变量 guestinfo.toolsInstallErrCode 将被设置为 1603。重新引导客户机操作系统无法清除该变量。 本版本已解决该问题。
包含 VMware Tools 版本 10.1.7本版本包含 VMware Tools 版本 10.1.7。有关更多详细信息,请参考 。
挂载 vSAN 磁盘组时,ESXi 主机失败并显示紫色诊断屏幕由于 vSAN 中存在内部争用情况,尝试挂载 vSAN 磁盘组时 ESXi 主机可能失败并显示紫色诊断屏幕。 本版本已解决该问题。
在 vSAN 见证主机上使用 objtool 会导致 ESXi 主机失败并显示紫色诊断屏幕如果您在 vSAN 见证主机上使用 objtool,它将执行 I/O control (ioctl) 调用,导致 ESXi 主机中出现空指针且主机崩溃。 本版本已解决该问题。
vSAN 群集中主机的拥堵程度较高,导致主机断开连接如果在引导 ESXi 主机时遇到具有无效元数据的 vSAN 组件,则指向 SSD 块的引用计数可能会发生泄漏。如果通过策略更改、磁盘停用或其他方法移除这些组件,则泄漏的引用计数会导致指向 SSD 块的下一个 I/O 阻塞。日志文件会累积,这会导致出现较高的拥堵且主机断开连接。& 本版本已解决该问题。
由于磁盘损坏,无法启用 vSAN 或将 ESXi 主机添加到 vSAN 群集中启用 vSAN 或将主机添加到 vSAN 群集时,如果主机上存在损坏的存储设备,则操作可能会失败。执行操作后,主机上会出现 Python zdump,且 vdq -q 命令失败,受影响主机上出现核心转储。 本版本已解决该问题。
将 LAG 配置为活动上行链路时,vSAN 配置帮助会因缺乏冗余而发出物理网卡警告当上行链路端口是链路聚合组 (LAG) 的成员时,LAG 将提供冗余。如果上行链路端口号为 1,则 vSAN 配置帮助将发出物理网卡缺乏冗余的警告。& 本版本已解决该问题。
成员主机和 vCenter Server 重新引导后,vSAN 群集会进行分区如果同时重新引导单播 vSAN 群集中的主机和 vCenter Server,则群集可能会进行分区。同时重新引导主机和 vCenter Server 的过程中,vCenter Server 未正确处理不稳定的 vpxd 属性更新。& 本版本已解决该问题。
由于读取缓存配额调整不正确,ESXi 主机失败并显示紫色诊断屏幕控制读取缓存配额的 vSAN 机制可能会进行不正确的调整,从而导致主机失败并显示紫色诊断屏幕。 本版本已解决该问题。
vSAN 容量监控报告大型文件系统开销在 vSAN 群集上启用去重和压缩后,“已用容量明细”(监控 & vSAN & 容量)显示了错误的用于文件系统开销的存储容量百分比。此数值未反映用于文件系统活动的实际容量。显示应正确地反映启用去重和压缩后 vSAN 群集的文件系统开销。 本版本已解决该问题。
由于交换对象的大小为 0 字节而导致 vSAN 运行状况检查报告 CLOMD 活跃度问题如果 vSAN 群集具有大小为 0 字节的对象,并且这些对象具有需要修复的组件,则 CLOMD 可能会崩溃。/var/run/log/clomd.log 中的 CLOMD 日志可能会显示类似于以下内容的日志:& T03:59:32.403Z )(opID:)CLOMProcessWorkItem: Op REPAIR starts: T03:59:32.403Z )(opID:)CLOMReconfigure: Reconfiguring ae9cf658-cd5e-dbd4-668d-c75 workItem type REPAIR
T03:59:32.408Z )(opID:)CLOMReplacementPreWorkRepair: Repair needed.1 absent/degraded data components for ae9cf658-cd5e-dbd4-668d-c75 found
vSAN 运行状况检查会报告 CLOMD 活跃度问题。重新启动 CLOMD 后尝试修复受影响的对象时会崩溃。交换对象是唯一可以具有 0 字节大小的 vSAN 对象。 本版本已解决该问题。
vSphere API FileManager.DeleteDatastoreFile_Task 无法删除 vSAN 中的 DOM 对象如果通过文件浏览器或 SDK 脚本使用 FileManager.DeleteDatastoreFile_Task API 从 vSAN 数据存储中删除 vmdks,则不会删除基础 DOM 对象。
这些对象可以随时间累积并占用 vSAN 数据存储上的空间。 本版本已解决该问题。
由于内部争用情况,vSAN 群集中的主机失败并显示紫色诊断屏幕vSAN 群集中的主机重新引导时,PLOG 重新记录代码和 vSAN 设备发现代码之间可能出现争用情况。此争用情况会损坏内存表,导致 ESXi 主机失败并显示紫色诊断屏幕。 & 本版本已解决该问题。
vSphere Command-Line Interface
您不能通过 vSphere Web Client 或 esxcli 命令更改某些 ESXi 高级设置 由于默认值错误,您不能更改某些 ESXi 高级设置,例如 /Net/NetPktSlabFreePercentThreshold。更改默认值可以解决此问题。& 本版本已解决该问题。
已知问题分为如下类别。
在启用了安全引导的 ESXi 主机上通过 --no-sig 检查选项安装未签名的 VIB 可能会失败 将禁止在启用了安全引导的 ESXi 主机上安装未签名的 VIB,因为未签名的 vib 会阻止系统引导。在安全引导的 ESXi 主机上,VIB 签名检查是必需的。 解决办法:在安全引导的 ESXi 主机上仅使用签名 VIB。
尝试使用 ESXCLI 或 vSphere PowerCLI 命令安装或升级 ESXi 主机可能会因 esx-base、vsan 和 vsanhealth VIB 而失败在 ESXi 6.5 Update 1 和更高版本中,esx-tboot VIB 和 esx-base VIB 之间存在依赖关系,您还必须在 vib update 命令中包括 esx-tboot VIB,才能成功安装或升级 ESXi 主机。
解决办法:在 vib update 命令中包括 esx-tboot VIB。例如: esxcli software vib update -n esx-base -n vsan -n vsanhealth -n esx-tboot -d /vmfs/volumes/datastore1/update-from-esxi6.5-6.5_update01.zip
在启用了安全引导的 ESXi 主机上根据 ESX 6.5 Update 1 基准进行修复可能会失败使用 vSphere Update Manager 根据包含 ESXi 6.5 Update 1 映像的升级基准来升级 ESXi 主机时,如果主机启用了安全引导,则升级可能会失败。
解决办法:可以使用 vSphere Update Manager 修补程序基准,而不是主机升级基准。
BIOS、BMC 和 PLSA 固件版本中的更改不会显示在直接控制台用户界面 (Direct Console User Interface, DCUI) 上DCUI 提供有关硬件版本的信息,但当版本发生更改时,DCUI 一直显示空白。& 解决办法:通过以下命令启动 WBEM 服务:esxcli system wbem set --enabled
VMware Tools ISO 映像读取负载高可能会导致闪存介质出现损坏在 VDI 环境中,VMware Tools 映像的高读取负载可能会导致闪存介质出现损坏。& 解决办法:& 可以将所有 VMware Tools 数据复制到其自己的 ramdisk。这样,每次引导时可以只从闪存介质读取一次数据。所有其他读取将转至 ramdisk。vCenter Server Agent (vpxa) 通过 /vmimages 目录访问此数据,该目录具有指向 productLocker 的 symlink。 要激活此功能,请执行以下步骤:
使用以下命令将 ToolsRamdisk 高级选项设置为 1: esxcli system settings advanced set -o /UserVars/ToolsRamdisk -i 1
重新引导主机。&
网络连接问题
受剥离 RX VLAN 标记功能的影响,通过 Intel i40en 驱动程序无法禁用硬件 对于 Intel i40en 驱动程序,硬件始终剥离 RX VLAN 标记,而且您无法使用以下 vsish 命令禁用硬件: vsish -e set /net/pNics/vmnicX/hwCapabilities/CAP_VLAN_RX 0 解决办法:无。
将物理上行链路添加到 VMware Host Client 中的虚拟交换机可能失败如果您选择网络 & 虚拟交换机 & 添加上行链路,将物理网络适配器或上行链路添加到 VMware Host Client 中的虚拟交换机可能会失败。 解决办法:
右键单击要编辑的虚拟交换机,然后单击编辑设置。
单击添加上行链路,向该虚拟交换机添加新的物理上行链路。
单击保存。
重新引导 ESXi 主机后,VMFS 数据存储对纯 ATS 阵列设备不可用如果连接到 ESXi 主机的目标仅支持隐式 ALUA 且只有备用路径,则设备将获得注册,但与介质访问有关的设备属性将不被填充。如果在注册后添加活动路径,刷新 VAAI 属性最多需要 5 分钟。结果是配置了纯 ATS 的 VMFS 卷可能无法挂载,直到 VAAI 更新为止。 解决办法:如果目标仅支持备用路径且只有隐式 ALUA,请使用以下 ESXi CLI 命令,在主机上启用 FailDiskRegistration config 选项:esxcli system settings advanced set -o /Disk/FailDiskRegistration -i 1 要使其生效,必须设置 config 选项并重新引导主机。这将延迟设备注册,直到您看到活动路径为止。 注意:如果在隐式和显式 ALUA 目标设备都连接到 ESXi 主机的环境中启用此 config 选项,显式 ALUA 备用路径设备的注册也可能延迟。& &
当您在 HBA 模式下打开或关闭 LED 管理命令时,它们可能会失败当您打开或关闭以下 LED 命令时 esxcli storage core device set -l locator -d &device id& esxcli storage core device set -l error -d &device id& esxcli storage core device set -l off -d &device id&, 它们在某些 HP Smart Array 控制器(例如,P440ar 和 HP H240)的 HBA 模式下可能会失败。此外,控制器可能会停止响应,导致下列管理命令失败:& LED 管理: esxcli storage core device set -l locator -d &device id& esxcli storage core device set -l error -d &device id& esxcli storage core device set -l off -d &device id& Get disk location:esxcli storage core device physical get -d &device id& 此问题是固件特有的,且仅由 HBA 模式中的 LED 管理命令触发。RAID 模式中不存在该问题。
解决办法:重试管理命令直到成功为止。&
面向 lsi_mr3 驱动程序的 vSAN 磁盘可维护性插件 lsu-lsi-lsi-mr3-plugin 可能发生故障并显示“无法获取设备信息...或格式错误 (Can not get device info ... or not well-formed ...)”错误 vSAN 磁盘可维护性插件可以为磁盘提供扩展管理和信息支持。在 vSphere 6.5 Update 1 中,命令为:
获取磁盘位置: 对于 JBOD 模式磁盘:esxcli storage core device physical get -d &device UID&。 对于 RAID 模式磁盘:esxcli storage core device raid list -d &device UID&。
LED 管理: esxcli storage core device set --led-state=locator --led-duration=&seconds&&--device=&device UID& esxcli storage core device set --led-state=error --led-duration=&seconds& --device=&device UID& esxcli storage core device set --led-state=off -device=&device UID&
可能会失败并显示以下错误之一: Plugin lsu-lsi-mr3-plugin cannot get information for device with name &NAA ID&. 错误为:Can not get device info ...或者 not well-formed (invalid token): ...
解决办法: 1.在遇到此问题的服务器上使用 localcli 而不是 esxcli 命令。 localcli 命令会生成正确的消息,而 esxcli 可能会随机失败。
虚拟机管理问题
VMware Host Client 对 ESXi 主机上的所有虚拟机(而不是使用“搜索”选择的范围)运行操作 当您使用“搜索”选择 VMware Host Client 中某个范围的虚拟机时,如果选中相应的框以选择全部,并运行关闭电源、打开电源或删除等操作,则该操作可能会影响主机上的所有虚拟机,而不仅仅是选定虚拟机。 解决办法:必须分别选择每个虚拟机。
早期版本的已知问题
要查看以前的已知问题列表,请单击。
早期的已知问题分为如下类别。
Auto Deploy 和 Image Builder
无法将 ESXi 6.0 主机配置文件中的 SSH root 用户密钥应用到 ESXi 6.5 在 ESXi 6.5 中,已弃用用于管理 root 用户 SSH 密钥的授权密钥主机配置文件功能。但是,已弃用的版本设置为 6.0 而不是 6.5。因此,无法将主机配置文件 6.0 的 root 用户 SSH 密钥应用到 6.5 版本的主机。
解决办法:要使用主机配置文件配置 root 用户的 SSH 密钥,您必须创建新的 6.5 主机配置文件。
通过重新引导目标无状态 ESXi 主机应用主机配置文件时显示无效文件路径错误消息 从无状态主机提取主机配置文件后,对文件进行编辑以创建新角色,使用用户输入的密码策略并启用无状态缓存,然后将配置文件连接到该主机,并更新配置中的用户密码和角色,则重新引导主机以应用主机配置文件将失败,并显示以下错误:
错误: EngineModule::ApplyHostConfig。异常: 文件路径无效 (ERROR: EngineModule::ApplyHostConfig. Exception: Invalid file path)
解决办法:必须将主机配置文件直接应用到主机:
停止 Auto Deploy 服务,然后重新引导主机。
引导主机后,确认主机上存在本地用户和角色。
使用配置中提供的凭据进行登录。
使用 Auto Deploy 引导无状态主机可能导致失败 出现以下情况时,getnameinfo 请求处理延迟约 11-16 秒并导致通过 Auto Deploy 引导无状态主机失败:
通过在主机项中添加 resolve 参数 (hosts: files resolve dns) 为无状态主机启用本地 DNS 缓存。hosts: files resolve dns 属于 Photon /etc/nsswitch.conf 配置文件。
主机上的网卡从 DHCP 获取其 IP,而 DNS 服务器中没有相同的 IP。
解决办法:在从 DHCP 获取 IP 的 vCenter Server 的网卡配置文件中,将 UseDNS 键设置为 false:
[DHCP] UseDNS=false
使用 vSphere Auto Deploy 部署无状态 ESXi 主机并在主机配置文件中指定 vSphere Distributed Switch 属性时,该主机可能会保持维护模式
使用 vSphere Auto Deploy 部署无状态 ESXi 主机并在主机配置文件中指定 vSphere Distributed Switch 属性时,该主机会在应用主机配置文件时进入维护模式。如果该过程失败,则可能不会应用主机配置文件,并且主机可能不会退出维护模式。 解决办法:在“主机配置文件”页面上,手动使已部署的主机退出维护模式并对其进行修复。
执行修复以便在启用了 iSCSI 的群集上应用主机配置文件设置导致在 vSphere Web Client 中出错 在将从配置了大量 LUN 的主机中所提取的主机配置文件连接到由启用了 iSCSI 的主机所组成的群集后,当您修复该群集时,修复过程导致在 vSphere Web Client 界面中显示以下错误消息:
批量应用主机配置文件操作失败。 com.vmware.vim.vmomi.client.exception.TransportProtocolException:org.apache.http.client.ClientProtocolException (Apply host profile operation in batch failed. com.vmware.vim.vmomi.client.exception.TransportProtocolException:org.apache.http.client.ClientProtocolException)
您还可以在 vpxd.log 文件中看到以下错误:
T12:06:01.214Z error vpxd[7FF1FE8FB700] [Originator@6876 sub=SoapAdapter] length of HTTP request body exceeds configured maximum
修复某个群集时,vSphere Web Client 会发出一个 API 请求,要求提供该群集中所有主机的数据。此请求超出了 VPXD 支持的最大 HTTP 请求大小。 解决办法:执行下列步骤:
在“修复”向导中选择更少的主机。
只有在修复完成后,才能启动其他向导处理剩余主机。
将 vCenter Server 系统从 5.5 或 6.0 升级或迁移到版本 6.5 后,vSphere Web Client 中不存在 Auto Deploy 选项 将 vCenter Server 系统从版本 5.5 和 6.0 升级或迁移到 6.5 后,vSphere Web Client 的配置 & 设置屏幕中不存在 Auto Deploy 选项。vSphere Auto Deploy 服务与 Image Builder 服务一起安装,但不会自动启动。 解决办法:执行下列步骤:
手动启动 Image Builder 服务。
从 vSphere Web Client 注销并重新登录。
在 vSphere Web Client 主页上,导航到 vCenter Server 系统,然后选择配置 & 设置以找到 Auto Deploy 服务。
将超过 63 个主机附加到一个主机配置文件后,主机自定义页面加载时会出错 从引用主机提取主机配置文件并将超过 63 个主机附加到此配置文件后,vCenter Server 系统过载且生成主机特定应答文件的时间超出 120 秒的时间限制。主机自定义页面加载时会出错:
查询执行超时,因为后端属性提供程序所用时间超过 120 秒 (The query execution timed out because the backend property provider took more than 120 seconds)
解决办法:将主机配置文件附加到群集或主机,但不生成自定义数据:
右键单击群集或主机,然后选择主机配置文件 & 附加主机配置文件。
选择要附加的配置文件。
选择跳过自定义复选框。vSphere Web Client 界面将不调用 RetrieveHostCustomizationsForProfile 来生成自定义数据。
填充自定义数据:
右键单击附加到群集或主机的主机配置文件,然后选择导出主机自定义。此操作将生成包含每个主机自定义条目的 CSV 文件。
在 CSV 文件中填写自定义数据。
右键单击主机配置文件,选择编辑主机自定义,然后导入 CSV 文件。
单击完成以保存自定义数据。
在 Intel XL710 (40GB) 网络适配器上对 ESXi 安装程序执行采用 PXE 引导的 Auto Deploy 导致失败 使用预引导执行环境将 ESXi 安装程序从 Intel XL710 网络设备引导到主机时,在控制转移到 ESXi 内核之前 ESXi 映像复制过程失败。您会看到以下错误:
Decompressed MD5:
Fatal error: 34(Unexpected EOF)
serial log: ****************************************************************** * Booting through VMware AutoDeploy... * * Machine attributes: * . asset= * . domain=eng.vmware.com * . hostname=prme-hwe-drv-8-dhcp173 * . ipv4=10.24.87.173 * . ipv6=fe80::6a05:caff:fe2d:5608 * . mac=68:05:ca:2d:56:08 * . model=PowerEdge R730 * . oemstring=Dell System * . oemstring=5[0000] * . oemstring=14[1] * . oemstring=17[04C4B7E] * . oemstring=17[5F90B9D0CECE3B5A] * . oemstring=18[0] * . oemstring=19[1] * . oemstring=19[1] * . serial=3XJRR52 * . uuid=4c4ca10-f523532 * . vendor=Dell Inc. * * Image Profile: ESXi-6.5.0-4067802-standard * VC Host: None * * Bootloader VIB version: 6.5.0-0.0.4067802 ****************************************************************** /vmw/cache/d6/b46ccd62ab4d636bc7f749/mboot.c32.f70fd55f332ccf77edd9fbff... ok
Scanning the local disk for cached image. If no image is found, the system will reboot in 20 seconds...... &3&The system on the disk is not stateless cached. &3&Rebooting...
解决办法:无。
备份和还原问题
在将 vCenter Server Appliance 基于文件还原到 vCenter Server 实例之后,vSphere Web Client 中的操作(例如配置高可用性群集或启用对设备的 SSH 访问等)可能会失败 在还原 vCenter Server 实例的过程中,将部署新的 vCenter Server Appliance,并使用自签名证书启动设备 HTTP 服务器。还原过程结束后,备份的证书已恢复但设备 HTTP 服务器未重新启动。因此,所有需要对设备 HTTP 服务器进行内部 API 调用的操作都将失败。
解决办法:将 vCenter Server Appliance 还原到 vCenter Server 实例后,必须登录到该设备,然后通过运行 service vami-lighttp restart 命令重新启动其 HTTP 服务器。
如果更改了 vCPU 的数量或设备的磁盘大小,则尝试从基于文件的备份还原 Platform Services Controller 设备会失败 在 vSphere 6.5 中,Platform Services Controller 设备部署了 2 个 vCPU 和 60 GB 磁盘大小。不支持增加 vCPU 的数量和磁盘大小。如果尝试对 CPU 超过 2 个或磁盘大小超过 60 GB 的 Platform Services Controller 设备执行基于文件的还原,vCenter Server Appliance 安装程序将出现故障并显示错误:大小可能与您设置的要求不匹配 (No possible size matches your set of requirements)。 解决办法:将处理器数量减少到不超过 2 个 vCPU,并将磁盘大小减少到不超过 60 GB。
通过基于映像的备份还原具有外部 Platform Services Controller 部署的 vCenter Server Appliance 不会启动所有 vCenter Server 服务 在使用 vSphere Data Protection 还原具有外部 Platform Services Controller 部署的 vCenter Server Appliance 后,必须运行 vcenter-restore 脚本以完成还原操作并启动 vCenter Server 服务。vcenter-restore 执行可能会失败,并出现以下错误消息:操作失败。请确保 SSO 用户名和密码正确并重新运行该脚本。如果问题仍然存在,请联系 VMware 技术支持 (Operation Failed.Please make sure the SSO username and password are correct and rerun the script.If problem persists, contact VMware support)。 解决办法:在 vcenter-restore 执行失败后,运行 service-control --start --all 命令以启动所有服务。 如果 service-control --start --all 执行失败,请确认输入正确的 vCenter Single Sign-On 用户名和密码。您也可以联系 VMware 技术支持。
从 SAN 引导问题
不支持在光纤通道或 LUN ID 大于 255 的 iSCSI LUN 上安装 ESXi 6.5 vSphere 6.5 支持介于 0 到 16383 之间的 LUN ID。不过,由于适配器 BIOS 的限制,不能使用 ID 大于 255 的 LUN 从 SAN 引导安装。 解决办法:对于 ESXi 安装,请使用 ID 等于或小于 255 的 LUN。
iSCSI 问题
在 vSphere 6.5 中,分配给 iSCSI 软件适配器的名称与先前版本不同 升级到 vSphere 6.5 版本后,现有软件 iSCSI 适配器的名称 vmhbaXX 会发生更改。这一更改会影响对适配器名称使用硬编码值的所有脚本。由于 VMware 不保证适配器名称在各个版本间保持不变,因此您不应在脚本中对名称进行硬编码。名称更改不影响 iSCSI 软件适配器的行为。 解决办法:无。
如果源 Windows 安装设置了静态 IPv4 和静态 IPv6 配置,则尝试将 Windows 上安装的 vCenter Server 或 Platform Services Controller 迁移到某个设备可能会失败,并显示有关 DNS 配置设置的错误消息 迁移配置了 IPv4 和 IPv6 静态地址的 Windows 安装可能会失败,并且显示错误消息:设置 DNS 配置时出现错误。详细信息: 操作失败。代码: com.vmware.applmgmt.err_operation_failed (Error setting DNS configuration. Details: Operation Failed. Code: com.vmware.applmgmt.err_operation_failed)。 新部署设备的日志文件 /var/log/vmware/applmgmt/vami.log 包含以下条目: INFO:vmware.appliance.networking.utils:Running command: ['/usr/bin/netmgr', 'dns_servers', '--set', '--mode', 'static', '--servers', 'IPv6_address,IPv4_address'] INFO:vmware.appliance.networking.utils:output: error:
returncode: 17 ERROR:vmware.appliance.networking.impl:['/usr/bin/netmgr', 'dns_servers', '--set', '--mode', 'static', '--servers', 'IPv6_address,IPv4_address'] error , rc=17 解决办法:
删除新部署的设备并还原源 Windows 安装。
在源 Windows 安装上,禁用 IPv6 或 IPv4 配置。
从 DNS 服务器中删除已禁用的 IPv6 或 IPv4 地址条目。
重试迁移。
(可选)迁移完成后,重新添加该 DNS 条目,然后在已迁移设备上设置已禁用的 IPv6 或 IPv4 地址。
在 Windows 集成身份验证模式下迁移具有外部 SQL 的 vCenter Server 6.0 时,VMware Migration Assistant 初始化失败 作为一个没有“更换进程级令牌”特权的用户,当您从具有配置了“集成 Windows 身份验证”的外部 Microsoft SQL Server 数据库的 Windows 上迁移 vCenter Server 时,VMware Migration Assistant 初始化将失败,并显示一条并不十分明确的错误消息,其中未指出失败原因。 例如:无法运行迁移前检查 (Failed to run pre-migration checks) vCenter Server 数据库在日志(位于
%temp/vcsMigration/CollectRequirements_com.vmware.vcdb__17_50.log)中收集要求。
日志包含以下条目: T12:20:47.868Z ERROR vcdb.const Error while validating source vCenter Server database: "[Error 1314] CreateProcessAsUser: 'A required privilege is not held by the client.'" 解决办法:验证是否已为运行迁移的用户设置了“更换进程级令牌”特权。在 Microsoft 联机文档中可以找到有关如何自定义设置的指南。您可在确认权限正确无误后重新运行迁移。
Lsu-hpsa 插件无法在本机 hpsa 驱动程序 (nhpsa) 上使用 Lsu-hpsa 插件无法在本机 hpsa 驱动程序 (nhpsa) 上使用,因为 nhpsa 驱动程序与 lsu-hpsa 插件所使用的最新 HPSA 管理工具 (hpssacli) 不兼容。您可能收到以下错误消息: # esxcli storage core device set -d naa.1c7dce62fb -l=locator 无法将设备的 LED 状态设置为定位符。错误为: HPSAPlugin_SetLedState 中的 HPSSACLI 调用退出并显示代码 127! (from lsu-hpsa-plugin) (Unable to set device's LED state to locator. Error was: HPSSACLI call in HPSAPlugin_SetLedState exited with code 127! (from lsu-hpsa-plugin)) # esxcli storage core device physical get -d naa.56a7 插件 lsu-hpsa-plugin 无法获取名为 naa.56a7 的设备的信息。错误为: Cache_Update 中的 HPSSACLI 调用退出并显示代码 127 (Plugin lsu-hpsa-plugin cannot get information for device with name naa.56a7. Error was: HPSSACLI call in Cache_Update exited with code 127)! # esxcli storage core device raid list -d naa.1c7dce62fb 插件 lsu-hpsa-plugin 无法获取名为 naa.1c7dce62fb 的设备的信息。错误为: Cache_Update 中的 HPSSACLI 调用退出并显示代码 127 (Plugin lsu-hpsa-plugin cannot get information for device with name naa.1c7dce62fb. Error was: HPSSACLI call in Cache_Update exited with code 127)! 解决办法:将本机 hpsa 驱动程序 (nhpsa) 替换为 vmklinux 驱动程序。
其他存储问题
如果使用 SESparse VMDK,格式化采用 Windows 或 Linux 文件系统的虚拟机需要的时间较长
格式化运行 Windows 或 Linux 文件系统的虚拟机时,格式化过程需要比平常更长的时间。如果虚拟磁盘为 SESparse,就会出现此问题。 解决办法:格式化前,在客户机操作系统上禁用 UNMAP 操作。您可以在完成格式化过程之后重新启用该操作。
尝试对共享远程 SAS 设备使用 VMW_SATP_LOCAL 插件可能会触发问题和故障 在 ESX 6.5 之前的版本中,被 VMW_SATP_LOCAL 插件声明的 SAS 设备也被标记为远程。在 ESX 6.5 中,被 VMW_SATP_LOCAL 声明的所有设备即使为外部设备,也都被标记为本地。因此,当您从早期版本升级到 ESXi 6.5 时,任何先前被标记为远程的所有现有远程 SAS 设备的状态均更改为本地。此更改会影响这些设备上部署的共享数据存储,可能会导致出现问题和不可预知的行为。 另外,如果错误地使用现在标记为本地设备但实际上为外部共享设备实现某些功能,将会发生问题。例如,当您允许创建 VFAT 文件系统或将设备用于 Virtual SAN 时。
解决办法:不要对远程外部 SAS 设备使用 VMW_SATP_LOCAL 插件。确保使用支持列表中的其他适用 SATP 或供应商的唯一 SATP。
在向数据存储上载文件期间从 vSphere Web Client 注销会取消上载并留下不完整的文件 向数据存储上载大文件需要一些时间。如果在上载文件的同时注销,上载将取消且不发出警告。部分上载的文件将保留在数据存储中。
解决办法:在文件上载期间不要注销。如果数据存储包含不完整的文件,请手动从数据存储中将其删除。
网络连接问题
当虚拟网卡连接到禁用了 Network I/O Control 的 vSphere 标准交换机或 vSphere Distributed Switch 时,连接失败 如果将虚拟网卡配置为预留大于 0,并将其连接到禁用了 Network I/O Control 的 vSphere 标准交换机或 vSphere Distributed Switch,则连接失败,并显示以下错误消息:指定的参数不正确: spec.deviceChange.device.backing (A specified parameter was not correct: spec.deviceChange.device.backing)。 解决办法:无。
完全直通设备的网络不可用 如果在直通 Broadcom 千兆以太网适配器上使用本机 ntg3 驱动程序,网络连接将不可用。 解决办法:
以旧版模式运行 ntg3 驱动程序:
运行 esxcli system module parameters set -m ntg3 -p intrMode=0 命令。
重新引导主机。
使用 tg3 vmklinux 驱动程序作为默认驱动程序,不使用本机的 ntg3 驱动程序。
虚拟机的用户

我要回帖

更多关于 redis 存储相同key 的文章

 

随机推荐