VMware ESXi挂载NFS类型存储容器相关内核参数优化
如果要为VMware ESXi主机使用NFS方式挂载存储容器(datastore),需要修改相关ESXi内核参数,以便优化挂载效率及网络读写性能。
以下参数设定值以ESXi 6.0为例。不同版本的系统,相应值会有所不同。
使用vSphere Web Client登陆主机控制台,找到主机配置页面,然后进入“高级设置”选项卡。
如果要为VMware ESXi主机使用NFS方式挂载存储容器(datastore),需要修改相关ESXi内核参数,以便优化挂载效率及网络读写性能。
以下参数设定值以ESXi 6.0为例。不同版本的系统,相应值会有所不同。
使用vSphere Web Client登陆主机控制台,找到主机配置页面,然后进入“高级设置”选项卡。
本文整理了NetApp磁盘阵列中常用的检查命令集,供快速排错及日常巡检用。
以下命令适用的NetApp ONTAP版本为8.2及以上版本(针对C-Mode类型磁盘阵列);8.0/8.1(针对7-Mode类型磁盘阵列)
需SSH登录至NetApp管理控制台IP后执行。
NetApp自带策略任务的触发间隔默认为:日-Daily / 周-Weekly / 月-Monthly,对于一个高负载的存储阵列,这样的间隔幅度还是比较长的。我们可以细化策略至每小时/24,来分散任务执行时对系统负载的压力。
$ job schedule cron create -name 0 -minute 0 -hour 0 $ job schedule cron create -name 1 -minute 0 -hour 1 $ job schedule cron create -name 2 -minute 0 -hour 2 $ job schedule cron create -name 3 -minute 0 -hour 3 $ job schedule cron create -name 4 -minute 0 -hour 4 $ job schedule cron create -name 5 -minute 0 -hour 5 $ job schedule cron create -name 6 -minute 0 -hour 6 $ job schedule cron create -name 7 -minute 0 -hour 7 $ job schedule cron create -name 8 -minute 0 -hour 8 $ job schedule cron create -name 9 -minute 0 -hour 9 $ job schedule cron create -name 10 -minute 0 -hour 10 $ job schedule cron create -name 11 -minute 0 -hour 11 $ job schedule cron create -name 12 -minute 0 -hour 12 $ job schedule cron create -name 13 -minute 0 -hour 13 $ job schedule cron create -name 14 -minute 0 -hour 14 $ job schedule cron create -name 15 -minute 0 -hour 15 $ job schedule cron create -name 16 -minute 0 -hour 16 $ job schedule cron create -name 17 -minute 0 -hour 17 $ job schedule cron create -name 18 -minute 0 -hour 18 $ job schedule cron create -name 19 -minute 0 -hour 19 $ job schedule cron create -name 20 -minute 0 -hour 20 $ job schedule cron create -name 21 -minute 0 -hour 21 $ job schedule cron create -name 22 -minute 0 -hour 22 $ job schedule cron create -name 23 -minute 0 -hour 23
以下策略配合重复数据删除功能用,按时触发在后台执行,减轻重删对系统服务性能的影响。
要在所有SVM上分别建立所有策略。
针对Nutanix集群,如果节点的CVM上有进程进入cpu_unblock状态且无法正常退出,可能会造成句柄堵塞,进而触发CPU高平均负载的警报。可以通过定期清理僵死进程的方式防范此问题。
登陆问题节点的CVM:
1、查看当前已有的cpu_unblock线程数:
Nutanix集群所用的Dell XC系列服务器上板载有Satadom卡,专门用于Hypervisor系统引导,以确保虚拟化层的完整性与稳定性。一般来说,这块板载的Satadom卡存在一定的使用寿命。如果出现I/O Error、Cannot open volumes的提示或者NCC服务自检出WARN - Hardware Satadom is wore and tore
,则需在其报废不可读之前主动更换。在更换前需要克隆原Satadom镜像,并导入至新Satadom卡中。
注意:本教程仅适用于原Satadom仍可正常引导、读写的情况。如果Satadom已损坏或者无法引导节点,则本手册方法不适用,需要完全重刷Satadom及对应ESXi系统。
系统环境:Nutanix (AOS 4.7.x~5.5.x) + VMware ESXi (5.5~6.7)。如果用NX自带的AHV虚拟化环境,则操作可能有所不同。