2014年6月9日星期一

Citrix虚拟化实施部署中的一些注意点

本邮件内容由第三方提供,如果您不想继续收到该邮件,可 点此退订
Citrix虚拟化实施部署中的一些注意点  阅读原文»

每日博报 精彩不止一点关闭
Citrix虚拟化实施部署中的一些注意点

(这是个人在部署实施Citrix虚拟桌面和应用过程中的一些小结,供大家参考,有不当的地方欢迎指正,我的虚拟化技术交流QQ群:108239387)

一、物理服务器xenserver 6.1及之前版本系统安装:

1、安装时修改参数:

1)按F2进入高级安装模式:

2)在boot后面输入 shell命令:

3)编辑安装引导文件:bash-3.2# vi /opt/xensource/installer/constants.py

(修改下列三个地方)

GPT_SUPPORT = True 改为 False (禁用 GPT分区,使用 MBR分区表)

DOM0_MEM = 752 #MB 改为 (本地内存,默认752M

root_size = 改为 10240(即10G的大小)

修改说明:

1 GPT_SUPPORT改为False,表禁用 GPT分区,使用 MBR分区表。

2 DOM0_MEM内存设置,由于每启动一台虚拟机,Dom0 中就会启动一个Qemu-DM 的进程,占用大约 6M的内存空间,因此在虚拟机数量较多的情况下,我们需要增大 Dom 0 内存以便支持更多的虚拟机运行。由于Dom 0 32 位操作系统,故支持的最大内存量为4GB

3 root_sizeDomain0root卷大小,使用较大的 root 卷大小可以有效防止由于Dom0 日志的突然快速增长导致 root 卷空间被占满从而引起 Dom0 运行异常的情况发生

(备注: XenServer 6.2 开始,Dom0 默认分配了 4G内存,因此不需要进行手工调整,之前版本要手动调整。

2、安装过程注意点:

1)选择安装磁盘的时候,默认不勾选"Enable Thin Provisioning"精简配置项,生产环境中一般不勾选,由xenserver来自动调配

2)选择物理网卡的时候,只要设置管理网的IP地址。

3)主机名和DNS必面输入,DNS可用公网的也可先用本机IP地址127.0.0.1

4NTP时间服务器问题:一种使用NTP服务器,可以输入外网的NTP地址,但要求服务器要能上外网,或是内网架设一个NTP服务器;另一种是手动输入,在安装最后的时候会弹出界面让你输入日期和时间。推荐使用第一种NTP全局时钟同步,否则在未来XenServer 服务器在组成资源池后可能会出现问题。当然如果只是做实验的话,可以直接输入本机IP地址了。

二、管理客户机安装XenCenter

1如果管理机是winxp系统需要先装.net 3.5程序

2xencenter管理机必须与xenserver管理网络能够相通。

3如果不想每次登录xencenter的时候都输入xenserver主机的密码,可以在顶上菜单"工具"― "选项"―"保存并还原"下面勾选 "启动时保存并还原服务器的连接状态"的复选框。

4网卡绑定的操作要在加入POOL资源池之前

5安装xenserver补丁有两种模式:一种是"检查更新"可以在线直接下载安装,前提是要求xencenter这台管理机能上互联网。另一种是"安装更新"需要自己到citrix网站上面先下好补丁,再通过本地硬盘上传到xenserver服务器进行安装更新。更新模式也有两种:一种是自动执行,安装更新过程可能需要多次重启主机。另外一种是手动执行的模式,等补丁全部安装完成以后再重启。建议选择第二种更新模式。

6添加共享存储:注意存储有设置多路径的话,在添加之前,我们先要把xenserver主机"进入维护模式",然后右键"属性",在多路径下面勾选启用。设置完成以后退出维护模式。

三、基础架构服务器安装:

1、新建win 2008 R2虚拟机:在设置CPU和内存和硬盘的时候注意要适当,因为设置完安装好系统之后,vCPU、内存和硬盘资料只能增大不能减小。如果做实验的时候物理机内存不大,可以先设置1vCPU1G内存,如果生产环境内存资源充足的话可以设2G以上。

2、DHCP服务器的设置注意DHCP的地址池一定要比虚拟桌面的数量大一些,否则调试的时候如果增删虚拟桌面,地址池没有释放的话,新建的虚拟桌面就会获取不到IP,无法注册到DDC控制台上。DHCP中选择首选DNS服务器地址的时候,一定要修改为本机固定IP地址,不能用默认的127.0.0.1,否则发布后的桌面系统DNS会获取不到DNS,无法上网。

3、License服务器的设置:(1)使用web登录许可证控制台,在要求你输入用户名和密码的时候,注意在用户名前面一定要加域,否则无法登录。(2)另外在导入完许可证文件后,记住一定要点击"重读许可证文件"按钮,否则不会生效。

Dynamic Disk Pool技术解析  阅读原文»

Dynamic Disk Pool技术解析

传统RAID技术在面临大容量磁盘的时候显得有点力不从心,这主要由于大容量磁盘技术的引入使得RAID的数据重构时间急剧变长,并且整体IO性能也受到了严重影响。所以很多人预测,传统RAID技术作为存储核心的时代即将过去,大容量磁盘的数据管理需要其它的数据保护技术。我也曾经在一些文章中分析过,传统RAID如果不进行架构级别的革新,那么数据重构时间(reconstruction time)和一致性性能(consistent performance)将会无法得到彻底解决。

年中的时候,我在公司内部提出采用存储虚拟化的技术解决磁盘RAID所面临的问题。该核心思想能够大大提高数据重构的性能,并且可以将应用IO和数据重构IO进行有效分离,使得应用IO性能在数据重构的时候不受到严重影响。无独有偶,在年的时候DELLNetApp也推出了在架构上非常类似的系统,该系统就是,简称DDP年底,华为也发布了他们最新的磁盘阵列系统RAID2.0,该架构和DDP也是类似的。这种架构的核心思想是将传统RAID中的数据保护层从磁盘管理组(DiskGroup)中剥离出来。数据保护在逻辑域中完成;磁盘管理在物理域中实现。通过这种分离,数据保护域和磁盘物理域之间可以进行很灵活的映射。这种架构上的灵活性可以提高数据重构的性能,并且使得数据重构性能随着磁盘数量的增加而提升。

下面首先来看一下DDP的技术特征。上面已经提及,DDP也将数据保护域和磁盘物理域进行了分离。从下图可以看出,DDP将所有的物理磁盘分成D-Piece,通过映射算法映射之后,若干个D-Piece组成一个D-Stripe;每个D-Stripe内部和传统的RAID-6的布局是相同的。也就是说,一个D-Stripe由多个传统的Stripe(条带)构成。由于这种虚拟化是底层虚拟化,为了降低虚拟化技术所引入的overheadD-Piece的容量往往会大于512MB

wKiom1OUhHWABjVKAAFmwGlaQLU017.jpg

通过上图可以很清晰的说明DDP的数据分布不是固定的,而传统RAID在磁盘上的数据分布是固定的。DDP需要通过一个D-Piece的资源分配器进行资源分配,这种资源分配策略往往采用动态按需分配的方式。

分析到此处,其实我们只是看到了DDP这种架构上的灵活性,但是还没有看到为什么采用DDP之后数据重构时间将会大大降低,这其中的奥妙何在?

要想搞清楚为什么引入虚拟化之后,RAID的数据重构时间会大大降低,这还需要分析传统RAID的性能瓶颈点。传统RAID的数据重构性能瓶颈点不仅在于Spare盘的写,而更为重要的是在于重构数据读操作。其实,如果数据重构的性能瓶颈点在于Spare盘的写,那么可以将Spare盘分布到多个磁盘上,这样可以避免单点写入的瓶颈,这种方案也就是distributed spare

wKioL1OUhGbxp6GNAADcWdMVRVg267.jpg

在实践中可以发现,即使将spare盘分布到多个物理磁盘上,reconstruction的整体性能还是无法得到提升。其主要原因在于重构数据的读性能是性能瓶颈点。所以,如果想要提升reconstruction的性能,必须要破解重构数据读写的双重瓶颈点。而且,我们知道写瓶颈是相对容易解决的,但是读瓶颈是很难解决的。其主要原因在于,如果想要破解读瓶颈,那么需要调整优化RAID的数据分布。

采用DDP的灵活架构就可以优化RAID的数据分布,这样就可以消除数据重构的读性能瓶颈。试想,在一个由多个shelf构成的大系统中,存在多个RAID6array;并且所有这些Array中的数据都按照分配算法分布到所有这些shelf中。那么,当一个shelf中的一个磁盘发生故障后,所有array都将会受到影响;那么所有array都会参与到数据重构中去。更为重要的是,由于在数据布局的过程中采用了特殊算法,因此,在所有array都进行数据重构的过程,所有的磁盘都会参与到数据重构过程中去,那么,这时候的数据重构性能将会是一个什么样的表现?事实证明,这时候的数据重构性能非常出色,并且如果shelf的数量越多,数据重构速度就越快,这是一个线性扩展的关系。而要达到这种目的,数据布局算法,也就是虚拟化过程中的资源分配器尤为重要,其决定了数据重构的性能。

华为和NetApp的技术架构类似,但是在分配算法上应该是不相同的。我采用虚拟化技术实现这种数据保护的RAID架构,并且实现了一种满足数据备份领域需求的分配算法,能够达到很好的数据重构性能以及一致性文件系统性能(consistent file system performance)。

NetApp的数据来看,随着磁盘数量的增加,DDP的数据重构时间在减少。这种数据重构性能的线性扩展能力是大容量磁盘梦寐以求的事情。从下图中可以看出,随着磁盘数量的增加,传统RAID的数据重构时间是恒定的,但是,DDP的重构时间可以线性降低。

wKiom1OUhK_h2hMzAACwZfrO4s0124.jpg

另一个非常有意思的结果是在两块盘发生故障的情况下,传统RAID的数据重构时间将会是翻倍的关系,但是,DDP不是这种关系。如下图所示,在两块盘发生故障的情况下,DDP的数据重构时间增加了50%,而不是100%

wKiom1OUhMaQnctAAADnYGpv04w558.jpg

可以说,DDP技术是在传统RAID基础上发展起来的新一代RAID架构,其核心思想是引入了虚拟化技术。随着磁盘容量的进一步增大,未来DDP技术将会在磁盘存储系统中大行其道。

本文出自 "存储之道" 博客,请务必保留此出处http://alanwu.blog.51cto.com/3652632/1423748

阅读更多内容

没有评论:

发表评论