澳门新萄京官方网站-www.8455.com-澳门新萄京赌场网址

怎样为服务器虚构化挑选合适的情势,云服务器

2019-09-16 作者:服务器运维   |   浏览(109)

在正确实施和管理的前提之下,虚拟化意味着成本的节约,这里有服务器硬件、支持和管理等诸方面的节约,还有更简易的服务器部署和进一步减少的能源消耗。为了让这些利益变成现实,这个结构的虚拟化层的管理,必须要独立于应用程序或物理服务器进行。

随着云服务器技术和厂商的迅猛发展,越来越多的企业选择将业务系统部署在云服务器上,通常他们会选择成熟的厂商比如亚马逊,阿里云,腾讯云等.谈到云服务器,就避免不了涉及IaaS(Infratructure

第一篇 基础篇

越来越多的IT组织倾向使用服务器虚拟化,以便将数据中心改造成一个“以服务为中心”的资源共享池,并通过一个智能网络来动态地合并、分层、配置以及访问这些资源。标准的服务器资源虚拟化能够动态地增加性能水平并减少总拥有成本TCO),同时通过虚拟化,IT组织还可以根据需要快速地部署和扩展资源,以便满足业务和应用程序的需求。

到底哪种模式最好?

保持完整性

as a service)技术.

第一章 绪论

SAN存储局域网)是最普遍的共享存储架构。如果IT组织部署了诸如VMware V13这样的虚拟化服务器环境,那么它们就需要这种共享的存储架构来执行大部分的必备功能,包括VMotion、分布式资源调度解决方案DRS)、高可用性HA)、合并备份以及ESX Server远程启动。将虚拟服务器合并到一个或更多)的互相连接的存储阵列上,能够为IT组织带来更具成本优势和更简单易行的灾难恢复及业务连续性解决方案。

虚拟化如今已经成为一个被过分夸大的流行语。

虽然你并不想让拥有相同需求的虚拟服务器位于同一个物理服务器上,但可能希望将某些物理服务器放置到至少在物理上和网络上比较近的位置。

IaaS

云计算的基本概念:

虚拟服务器连接性

在大型机领域,它已经是一张盘桓了数年的老面孔。它的主要功绩在于将原本只为大型科技服务的概念移植到了x86机之中,并让人民大众从中得到帮助。

原因:为了减少在物理服务器之间切换虚拟服务器,其需要就会增加。如果一组物理服务器共享网络连接和其它资源,将一个虚拟服务器从一个物理服务器切换到另外一个物理服务器的时间会极大地减少。

(Infrastructure as aService)基础架构即服务,是云计算的一种类型,它是PaaS(Platformas a Service平台即服务)和SaaS(softwareasaservice软件即服务)的基础。IaaS软件通常用于管理大规模的物理硬件(IaaS可以管理小到一台物理主机,多到成千上万的物理服务器)并把客户所需的软硬件资源(CPU,内存,网络,存储等)以“主机”的形式提供.

狭义的云计算:

服务器虚拟化实施所带来的可移动性和可恢复性依赖于外部共享存储,而且这些功能在SAN连接的环境下最有效。虚拟服务器一般置于主数据中心,并主要通过光纤通道协议来获取企业的存储资源。光纤通道所带来的高性能能够满足运行在一个服务器上的多个虚拟机的高I/O需求。SAN连接能够帮助服务器虚拟化的运行,而服务器虚拟化则越来越推动IT组织对SAN连接的需求。

虚拟化这种一方面简单明了、另一方面却实施模型有限的技术一旦爆发,可以想象其影响力之巨大。如今每一个我们能想象的地方都有它的身影,即使是在智能手机中也不例外。

“如果你在一个机架中拥有多个服务器,你就可以在一个服务器上关闭虚拟机,而在同样的交换机上的另一台服务器上打开它,”Anderson说,“花费的时间大约等于用来复制硬盘的时间。”

IaaS的根本就是将计算资源进行池化,这里的计算单元包括但不限于cpu,内存,网络.这些资源被逻辑切割成更小的可管理单元,然后根据客户需要被灵活的组装成可运作的主机,很明显这里的主机并不是一台真的物理主机,而是虚拟机.这个虚拟机通常都会包含一个可以连上网络的操作系统,用户可以通过网络连接上虚拟主机并且能灵活的进行资源配置以及按照配置及时间来付费.而用户操作这台虚拟主机就像操作一台物理服务器一样,可以在上面安装软件,搭建数据库以及应用服务器,部署web应用.由于这些提供给用户的功能都是最基础的计算功能,所以这种服务形式也被称作基础架构及服务(IaaS)

广义的云计算:

虚拟服务器的存储管理员的主要问题是如何使用光纤通道主机总线适配器HBA)上的物理全局端口名称WWPN)来进行光纤架构分区的定义、存储LUN逻辑单元号)的屏蔽以及虚拟机的设置。此外,虚拟服务器管理员一般会定义一个特定的分区,让这个分区中的所有磁盘都对所有虚拟化的服务器开放,以便支持虚拟机迁移到新的服务器。这种设计使得人们担心裸设备映射RDM)下磁盘的安全隔离,而且如果定义了两个以上的分区,那么还需要对网络重新设置。为了解决这个问题,出现了虚拟HBA端口VPort),VPort使用N端口ID虚拟化NPIV)协议,能够让虚拟服务器管理员将虚拟机捆绑到存储资源中,并使用VPort参数来定义多个分区,这样虚拟化服务器环境就更加便于管理和更加安全了。

新功能完全没有为极力避免使用虚拟化的不同意见者提供任何帮助。有些人认为这一选择值得大力推广,另一些则宣称使用所涉及的技术是“唯一正确的发展方向”。

另外一方面,他说,如果你正在转换的服务器位于数据中心的另外一端,需要插入到不同交换机的不同子网中,那么配置时间将额外增加5分钟或10分钟。或者如果有其它的限制条件,那么花费的时间就可能更多一些。

上面我们提到IaaS的根本是将资源进行池化,这些资源我们把它分为三个大类:计算资源(CPU),存储资源(内存和存储),网络资源;下面我们详细地分析这三类资源的池化,也可以称为虚拟化.

云计算的基本特征:

NPIV概述

直接连接型虚拟化与分布式模式,二者的冲突给意识形态带来了新的战场。

当然,接近是有限制的,不管是物理上还是网络上。例如,你并不想要服务器使网络连接过载,而且你想让物理服务器隔开一段距离,或者处于不同的状态,对于灾难的恢复来说。这是一个有平衡作用的举动。

CPU虚拟化

IAAS:infrastructure as a service

NPIV是一个行业标准,该标准能够将虚拟化扩展到HBA,它提供了一种将多个WWPN分配到同一个物理连接的方式。NPIV技术虚拟化了物理HBA端口,将这些端口设置成一个端到端的SAN拓扑。虚拟HBA技术允许单个物理光纤通道HBA端口作为多个逻辑端口来运行,每个逻辑端口都有自己的名称。

直接连接型虚拟化比较简单,说起来也就是一台服务器,配备着托管数套虚拟机的本地存储。它们利用由管理程序提供的虚拟交换机即vSwitch)进行互相通信,而无需将数据包经过网络接口卡简称网卡)发送至网络的每个角度。

跟踪明了硬件

对于CPU来说,它具有极高的计算能力,可以在一秒钟内可以运算上千万条指令。另外,由于客户的虚拟机往往运行的并不是计算密集型的应用程序(如浏览网页,访问数据库,存储文件等等),换句话说它的程序功能可以在很短时间(毫秒级别)内计算完成,当计算完成或等待其他网络、硬盘等IO操作时,如果没有其他计算任务,CPU便会进入空闲(IDLE)状态。经过统计,通常情况我们的CPU繁忙的时间很短,例如CPU有95%的时间都处于空闲状态。如果我们让CPU在等待的时候,也能给别人提供服务,便可以让资源利用率最大化,所以CPU的虚拟化技术的本质就是以分时复用的方式,让所有的虚拟机能够共享CPU的计算能力。因为CPU运算的速度非常快,而且这种分时的单元非常的小,以至于用户完全不会察觉到自己的虚拟机是在CPU上轮流运算的,所以在宏观的世界里,这些虚拟机看起来就是在同时工作的。当然IaaS软件还需要通过一些手段保证每个虚拟机申请的CPU可以分到足够的时间片

PAAS:platform as a service

每个虚拟机都可以与自己的VPort连接,VPort上包含了一个独有的全局节点名称WWNN)以及四个以下的WWPN。存储管理员通过最流行的服务器虚拟化环境比如VMware ESX Server 3.5和RDM)来部署虚拟机,他们通过NPIV可以创建出更加便于管理和维护的虚拟机。虚拟服务器利用NPIV来创建一个唯一的VPort,每个虚拟机都可以持续连接到这个VPort上,而且HBA还将这些VPort透明地注册在光纤通道SAN网络上。

讨论环节

这种非线性使管理虚拟服务器的另外一方面复杂化了。管理员们需要密切地监视在不同物理服务器上的资源需求。

内存虚拟化

SAAS:software as a service

图片 1

通常情况下,托管在直接连接方案中的虚拟机能够与处于主机系统之外的服务器及客户机进行沟通,但大部分交流仍然发生在同一套系统中的虚拟机之间。

这与在虚拟机上的操作系统所报告的需求是不同的。随着应用程序资源的配置文件发生改变,管理员们最好密切注意其趋势,以避免突然的资源匮乏。

我们知道,物理内存在计算机上通常是一段以零地址开始以全部内存空间为截止地址的空间。例如4个8GB内存条组成的32GB内存,它在物理服务器上看起来就是0~32GB的空间。CPU在访问内存时的,只要提供内存地址,就可以访问到地址内的数据。对于每个虚拟机来说,不论给它分配1G的内存,还是分配4GB的内存,它通常都认为自己的内存是从零开始的。但实际上,它们都会被映射到物理机上的不同地址段,有的可能是从2G开始的,有的可能是从4G开始的。而且不仅仅是内存的起始地址在物理机上不同,甚至虚拟机的内存在物理机内存上的分布也不是连续的。他们可能会被映射到不同的内存空间。虚拟机管理程序(Hypervisor)负责维护虚拟机内存在物理内存上的映射。当虚拟机访问一段自己的内存空间时,会被映射到真实的物理地址。这种映射对虚拟机的操作系统来说是完全透明的。因为一台物理机上运行了多个虚拟机,所以虚拟机管理程序需要保证,不论在任何时候,来自虚拟机A的访问内存请求不能到达虚拟机B的内存空间里面。这就是所谓的资源隔离。

云计算的优势:

怎样为服务器虚构化挑选合适的情势,云服务器IaaS的财富设想化。使用NPIV标准的VPort联接

分布式虚拟化则完全不同。主机服务器被尽可能当作一套彻头彻尾的一次性处理单元。存储资源采用集中式管理方案,并通过存储区域网络简称SAN)中虚拟机与物理交换机之间的通信被提供给多台主机。

而且,跟踪物理硬件必须要祥细,因为虚拟化的应用程序依靠服务器提供的不同种类的资源来维持,由此造成的负荷是不同的。因为不同的虚拟化应用程序拥有不同的需求,如内存、处理器周期和I/O带宽等需要分别地进行跟踪。

存储虚拟化

优点和缺点:

通过使用定义好的VPort,管理员可以无缝地启动特定的虚拟机。在将虚拟机迁移到一个新的物理服务器的过程中,存储管理员不再需要重新设置他们的网络例如,分区、屏蔽以及捆绑等),因为这些设定可以通过逻辑端口的设置来进行。

不过每种模式都有各种的局限性。

你不能做的是通过监视虚拟机上的操作系统来跟踪服务器的物理资源。你必须到管理程序的下层去跟踪一个物理服务器上的资源,并且从不同的虚拟机进行。你可能仍然需要跟踪VM所报告的资源利用,不过那是一个独立的问题,那是为性能分析等所做的。(再次注意,这假设你正使用Vmware或 Xen等管理程序虚拟化软件)。

IaaS虚拟存储资源的方法和虚拟内存类似,主要也是通过把一个大的存储空间划分成多个小的存储空间分配给虚拟机使用。但是与内存虚拟化不同,存储虚拟化通常并不是直接发生在硬盘的寻址层面,也就是不会在具体访问硬盘驱动的时候才转化访问的地址。存储虚拟化是以文件为单位来进行资源的存储和隔离的。这个文件不是虚拟机里看到每个具体文件,而是在物理机上用于模拟虚拟机硬盘的一个超大文件,对硬盘地址的访问就是对文件的某个偏移量的访问。这点看似复杂,其实更容易理解。例如一个大小为20GB的独立文件,可以被看成是一个20GB的硬盘空间,当需要访问0地址的时候,也就是访问文件的开头,当需要访问3G这个地址的时候,也就是访问文件的3G偏移量的地方。使用这种灵活分配的方法,理论上可以让一个2TB的物理硬盘,化身身成接近100个20GB或者接近20个100GB的硬盘。需要说明的是,看似一个完整的20GB文件,它在硬盘上可能并不是连续存放的,这完全取决于虚拟机管理程序的文件系统是如何分配硬盘空间的。当然虚拟机本身并不会意识到这点,具体访问硬盘的时候,会由虚拟机管理程序的文件系统来保证访问的准确性。

第二章 云计算架构以及标准化情况

NPIV使用案例

直接连接式虚拟化速度更快。每块10Gb 网卡目前SAN的标准接口)在理论上可以提供最大1280兆字节每秒MBps)的传输速度。而目前相当普遍的PCIe 8x 2.0 RAID卡理论上的传输速度更高达4000MBps。

根据Anderson的观点,存储带宽通常是物理服务器上最关键的资源,只是因为这是一个硬性限制。不像其它任何方面,从存储到处理周期,你不能增加内置到服务器中的存储带宽。当它饱和之后,你要将一些虚拟机迁移到一台新的物理服务器上。

网络虚拟化

第二篇 技术篇

IT管理员在虚拟服务器环境下部署NPIV的目的是提高存储管理能力。NPIV在管理关键任务的存储访问或SLA服务品质协议)驱动型虚拟化环境的存储访问时最为有用,不过在合并非关键文件及打印服务器,或在测试及开发环境中则显得作用没有那么大。下面是目前用到NPIV虚拟化服务器部署的一些使用场合。

不过一用在实际工作中数字就没那么乐观了。我在10Gb网络附加存储系统上所能得到的上限速度仅为900MBps,而我自己的RAID卡SSD RAID 10)也只能带来2200MBps的实际表现。不过2200MBps已经足以将900MBps碾压到不成人形,并且这样的存储速度优势已经极具价值,而且请记住,这种优势是直接连接模式所提供的。

所有种类的带宽是一个特定的问题,因为它可能就是问题出现的地方。不仅几乎所有的应用程序使用带宽,而且其负载还趋于多样化。如果两个或多个应用程序同时达到了最大的内存需求,你可能会不断地碰到难以跟踪的问题。

通常用户通常熟悉的计算机网络概念包含,网卡、IP地址,主机名等等。例如在一台物理机上,可能有一个或几个网卡,每个网卡在工作的时候会分配不同的IP地址,对外可能有一个或多个网络主机名。网络连接速度取决于网卡的能力以及网络接入(例如交换机)的能力。在网络上通过IP地址或者网络主机名可以连接不同的物理主机,所以在一个可以路由的网段内IP地址和主机名必须是唯一的。在每个网卡上,还有一个MAC地址,用来标识在相同网段上不同的网卡。用户通常不会注意MAC地址,因为它并不需要用户手动配置。那么什么是网络虚拟化呢?假如原本的物理机只有一个网卡,那么它有一个MAC地址,并且可以分配一个IP地址,其他机器就可以通过IP地址访问这个物理主机。当创建N个虚拟机后,每个虚拟机都需要有独立的网络配置,以便他们可以像物理机一样的处理各种网络连接。但是这个时候物理机上依然只有一个网卡,N个虚拟机通过这一个物理网卡都能进行顺畅的网络连接的过程即为网络虚拟化。

第三章 云存储

——通过WWPN,IT管理员可以跟踪虚拟机的I/O吞吐量、存储传输以及利用率,这样IT管理员可以根据应用程序或用户来进行资源计费。每个NPIV实体在SAN中都是唯一的,因此SAN可以跟踪单个虚拟服务器使用情况。在NPIV出现之前,SAN和虚拟服务器只能观察到在物理光纤通道端口上的所有运行于该服务器上的虚拟机的总体使用情况,除非用一些特定厂商的基于逻辑单元号的工具。

网上有这样一个类似的故事。某款管理程序的虚拟交换机为每台虚拟机提供了一块10Gb的虚拟网卡。这使得处于同一台主机内的每套本地虚拟机系统以10Gb的理论数值进行通信;如果如果大家愿意为某台指定的虚拟机搭配多套虚拟网卡,那么速度还将进一步提升。

这就带来了新一层的复杂性,或者至少是在虚拟化数据中心中的一个新的观察点。

虚拟机上的网络概念和物理机一样。在一个物理机上创建多个虚拟机,就是要创建多份虚拟机的虚拟网卡,并且保证它们能够正确的联通到网络上。这是如何做到的呢?这主要是通过虚拟机管理程序在虚拟层面创建了一个虚拟的网桥(Bridge)。这个网桥就和我们我们看到的交换机一样,上面有很多“接口”可以连接不同的虚拟网卡,当然物理机的真实网卡也需要连在这个网桥上,并且设置了一种特殊的混杂模式(可以允许不论该物理网卡是否为网络包的目的地址都能通过该网卡接收或者发送)。在同一个网桥上的不同虚拟机之间进行的网络通信,只会在本网桥内发生。只有当虚拟机的网络通信的对象不在本机(比如物联网上的其他主机)上的时候,他们就会通过物理机的网卡向外进行传输。由于物理机的网卡带宽能力是固定的,所以在一个网桥上的虚拟网卡也是分时共享相同的网络带宽(如果网络包的交换之发生在本网桥内,速度不会受到物理网卡的影响)。虽然他们在自己传输的时间段内是独占全部带宽(例如1Gbps),但是同时会导致其他虚拟网卡暂时无法传输数据,以至于在宏观范围(秒)来看,虚拟机是没有办法在共享网络的时候占用全部带宽的。如果假设有4个虚拟机都在进行大规模的网络操作(例如大文件的下载和上传),那么理论上他们的实际连接速度最多就只能达到250Mbps。由于网络速度对云计算中虚拟机的能力非常重要,芯片公司也在不断推出各种针对网络连接的硬件虚拟化解决方案(例如SR-IOV,VMDq等等)。

云储存的结构模型

——虚拟机可以和RDM映射下的设备联系在一起,这样IT管理员可以跟踪逻辑单元号的情况,并根据应用程序的需要来定制化自己所需要的信息。跟踪WWPN的SAN工具可以报告单个虚拟机的性能或诊断数据。由于每个NPIV实体在SAN中都是唯一的,因此基于交换机和阵列的报告工具也可以报告每个虚拟机的诊断数据和性能数据。

困境

在支持虚拟机的物理服务器耗尽资源时,就会有大量的应用程序受到影响。

如果物理机去上只有一个物理网卡,那么不同的虚拟机的网络都是通过同一个网卡连接出去,这是会导致网络安全问题的。例如一个虚拟机可以监听整个网络上的所有数据包,并分析截获感兴趣的别的虚拟机的网络数据。为了解决这个问题,计算机网络提供了一种叫做VLan的技术。通过对网络编辑指定的VLan编号,一个物理网卡可以拓展多达4095个独立连接能力。例如,如果原本的物理网卡为eth0,VLan1的网卡设备在操作系统就变成eth0.1,VLan1000的网卡设备就是eth0.1000,eth0.1和eth0.1000之间都无法看到对方的网络包。有了VLan的支持,在相同物理机上的虚拟机就可以分配不同的VLan编号的网络设备,从而进行了网络隔离。

两种架构:

——存储与虚拟机的双向连接使得SAN管理员可以更好地同时跟踪从一个虚拟机到一个RDM设备的情况以及从一个RDM设备到一个虚拟机的情况NPIV的支持极大地提升了这种能力)

当将分布式的非主机设备引入余下的网络中时,这些虚拟机就要为争夺硬件所提供的有限带宽资源而奋战。如果我们有三十套虚拟机系统,那么为它们各自配备10Gb带宽,与只拿出一块10Gb带宽的网卡让它们共同使用、而由物理交换机负责网络处理是完全不同的感觉。

监视

有了资源的虚拟化,并且提供将虚拟化资源灵活管理的能力,

块存储,文件存储

—— 虚拟机的存储配置可以使用和物理服务器同样的方法、工具和思想。由于虚拟机和WWPN之间的关系是唯一的,因此传统的分区方法以及逻辑单元号屏蔽方法都可 以继续使用,从而提高了虚拟服务器和非虚拟服务器的统一管理水平。光纤架构分区可以将目标端的可视性局限于各个虚拟机上特定的应用程序。过去,一个应用程 序需要设置唯一的物理适配器,现在,可以它可以重新映射到虚拟服务器上的唯一的NPIV实例上。

如果仅从目前提出的数字出发,那么分布式虚拟化看起来简直就是疯狂而不可理喻的。但它仍然具备独特的优势,而对于许多而言,一切缺点在这优势面前都可以算是必要的成本。

确保资源的可用性需要是对虚拟的/物理的服务器堆栈需要密切监视的另外一个原因。另外一个原因是硬件失效会影响到不只一个应用程序。

IaaS厂商便可以采购成千上万台物理服务器,并且通过虚拟化技术将这些资源重新拆分,然后按需租赁给客户使用.在IaaS的基础上,

第四章 云服务

——存储管理员可以在虚拟服务器环境中为单个虚拟机设置Intel虚拟SAN路由IVR),这样用户就可以重新设置他们的光纤架构,合并存储孤岛,将庞大的SAN分解成几个更小更易于管理的SAN,并根据逻辑关系来分配资源。

直接连接式虚拟化所无法实现的就是从一台主机上的虚拟机中迅速迁移至另一台。虚拟机本身可能就体积庞大,因此通过网络实施迁移无疑会耗费大量时间。

因为监视如此重要,所以像Vmware以及Swsoft的 Virtuozzo虚拟化软件都包括能够帮助跟踪物理和虚拟资源的工具。

PaaS和SaaS产品也如雨后春笋般出现,接下来的文章我们将对PaaS和SaaS技术做深入探讨.

第五章 虚拟化

—— 当虚拟机被迁移到新的虚拟服务器上时,虚拟机迁移能够支持VPort ID的保存。这样提高了管理人员跟踪RDM设备到虚拟机情况的能力。当虚拟机被迁移到新的虚拟服务器集群)或准备在新的虚拟服务器集群)上运行时,存 储访问权限可以被重新设定到该组虚拟机集群)。当虚拟机被迁移到一个新的虚拟服务器上时,SAN的设置可以不用修改便进行调整,以便各个不同的物理光纤 通道端口的使用。

但这对分布式虚拟化所采用的集中式存储模式来说就不叫个事儿。不仅如此,分布式虚拟化还允许我们对不同主机上处于运行状态的虚拟机系统进行实时迁移。

因为负荷随时间而改变,所以监视就是一个持续的过程。你不能设置监视然后又忘记监视。事实上,你必须更密切地注意监视,因为每一个物理服务器正支持几个虚拟服务器,而且如果一台物理服务器开始耗尽资源,那么所有的虚拟服务器都能受到影响。

图片 2

第六章 云桌面

——HBA的升级、扩展以及替换现在可以无缝地进行。由于SAN分区以及逻辑单元号屏蔽不再根据物理HBA WWPN,因此物理适配器的替换或升级不会影响到SAN的设置。

高度的可用性是分布式虚拟化的另一大重要卖点。

相关文章】

第七章 云安全

NPIV的好处

直接连接式虚拟化依靠强劲且具备高度容错性的虚拟主机来实现优秀的可用性。分布式虚拟化则会在一台主机出现故障并重启时,将所有虚拟机在集群中的其它主机上加以运行。大家使用的主机越多,分布式模式的优势就越明显。

  • 微软为虚拟化放宽41种服务器程序授权

通过虚拟HBA技术,虚拟服务器环境能够为企业数据中心提供NPIV支持。数据中心如果部署带NPIV的虚拟服务器环境,那么可以得到如下好处:

信息直观性

云计算原理与实践()

—— 更低的总拥有成本:通过服务器虚拟化,将服务器予以合并,能够减少总拥有成本,提高资产利用率并简化管理。如果和光纤通道以及带NPIV的HBA一起使 用,那么一个智能HBA端口就能为多个虚拟机进行数据传输,减少网络处理工作负荷,从而使管理人员能够部署更多的经济节省的服务器。

分布式虚拟化的另一大优势是,尽管在传输速度上有所限制,但强制将所有流量通过物理交换机处理使得网络管理员具备更强的直观性及可管理性。

  • 用跨平台虚拟安全工具强化虚拟安全
  • 第2章 云计算核心技术

——服务质量保证QoS):当NPIV协同光纤架构QoS一起使用时,每个虚拟机可以分配一个自己的逻辑HBA端口,并由该端口根据传输优先级创建多条I/O路径。

企业级网络通过工具运行网络设备,进而直接为每一个端口提供终端到终端的管理。它们可以为链接、流量隔离、监控、服务质量以及标记框等功能提供加密机制。

 虚拟化的分类方式有很多。从虚拟化的目的来看,虚拟化主要分为三类:平台虚拟化、资源虚拟化和应用程序虚拟化。

——更高的可靠性:多个逻辑端口能够为虚拟机以及它们的数据创建冗余路径。通过这些逻辑端口,管理人员可以更加方便地使用标准存储,更好地利用光纤架构诊断工具来隔离并解决系统所发生的问题。

而一旦采用虚拟交换机,这些好处就荡然无存了。虚拟交换机所使用的管理语言与物理网络设备完全不同。比起后者拥有的对网络中每个系统中任何数据包的控制能力,使用虚拟交换机使我们管理的目标被限定在了主机服务器上。

  • 服务器虚拟化技术之十大误区

平台虚拟化(Platform Virtualization),它是整个计算环境和运行平台的虚拟化,是计算机和操作系统级别的虚拟化,包括了服务器虚拟化和桌面虚拟化。服务器虚拟化可以将一台物理服务器虚拟成若干服务器使用。桌面虚拟化将桌面环境与其使用的终端设备解耦合,服务器上存放的是每个用户的完整桌面环境。用户可以在任何地方登录到相同的桌面,而对于公司内部,便于统一管理用户的桌面。服务器虚拟化主要通过实现服务器的主要资源虚拟化,如CPU虚拟化、内存虚拟化和I/O接口虚拟化来实现的。

——基于角色的管理以及安全保护:在负责保护公司数据的管理人员的控制下,每个虚拟机以及它所连接的存储都完全隔离于其他的虚拟机。

设计概念

...

资源虚拟化(Resource Virtualization),它是对服务器的资源进行的虚拟化,主要包括:内存虚拟化、存储虚拟化、网络虚拟化等。内存虚拟化是将服务器的内存进行虚拟化,形成多个独立的内存块分配给虚拟机使用。存储虚拟化是将整个云系统的存储资源进行整合管理,为用户提供一个统一的存储空间。网络虚拟化是在底层物理网络和网络用户之间增加一个抽象层,该抽象层向下对物理网络资源进行分割,向上提供虚拟网络。网络虚拟化根据虚拟化的网络类型不同一般包括虚拟局域网和虚拟专用网,从而实现整个网络环境的虚拟化。

——简化的管理:在VMotion迁移过程中,管理人员无需再重设置光纤架构分区和LUN屏蔽参数。

说到这里,这两款模式可谓不分伯仲。大家可以根据自己的需要选择合适的模式并加以部署,但这似乎还不能完全令人满意。而在伟大的IT传统观念中,也根本没有不可能一词,基于创新的思维方式,混合虚拟化模式开始出现。

应用程序虚拟化(Application Virtualization),它是将应用程序从对底层的操作系统和硬件的依赖中抽象出来,从而解除应用程序与操作系统和硬件之间的耦合关系。应用程序虚拟化包括模拟、仿真、解释技术等。代表产品有Microsoft Application Virtualization(App-V)、VMware ThinApp、Symantec Software Virtualization Solution(SVS)等。

...

新一代网卡已经开始模糊二者之间的界线,而其中至关重要的一环是类似802.1Qbg的尖端标准。这一标准也被称为边缘虚拟格拉或者虚拟以太网端口聚合简称VEPA)。

 

VEPA网卡自身所具备的能力足以被称为交换机。在使用中,主机上的虚拟机绕过虚拟交换机,直接与网卡中集成的交换机对话。而网卡则能够与管理软件直接对话,这样一来我们就既拥有了分布式网络带来的种种优势,又不必担心由于所有虚拟机流量都被发往物理交换机而引起传输速度瓶颈。

平台虚拟化技术又可以细分为以下几大类:

与VEPA展开激烈竞争的机制是802.1Qbh,也被称为桥口扩展或者VN标签。它几乎完全是由思科公司一手打造,并需要对当前以太网规范加以延伸;换言之,我们需要为之采用很多新的硬件。

(1)完全虚拟化

这与VEPA形成了鲜明的对比,因为VEPA并不需要我们为之更新网络设备,也同样提供了一套虚拟环境中的终端管理可行方案。

完全虚拟化(Full Virtualization)是指虚拟机通过虚拟化模拟了完整的底层硬件运行环境,包括CPU、内存、磁盘、网卡等。在客户机操作系统和原始硬件间一些受保护的特权指令由Hypervisor(虚拟机管理程序)来捕获和处理,使客户操作系统无需修改就能运行,其结构如图2-1所示。
图片 3  

在同一台主机上通过差异化配置来实现同时使用直接连接式存储与分布式存储的作法也开始出现。我最近就完成了一套部署,其中每台主机都拥有大量本地存储以辅助备份工作。

完全虚拟化的运行速度要快于硬件模拟,但是性能方面不如裸机,因为Hypervisor需要占用一些资源。完全虚拟化的最大优点是操作系统没有经过任何修改。它的唯一限制是操作系统必须能够支持底层硬件。代表产品有VirtualBox、KVM(Kernel-based Virtual Machine)、VMware Workstation 、VMware ESX Server和Virtual PC等。

每台主机都拥有一套虚拟备份设备简称VBA),其作用是为分配给该主机的虚拟机进行基于镜像的备份,并将镜像存储于本地缓冲驱动器中。这使得备份速度变得飞快。

(2)半虚拟化

中央VBA会从每台主机上读取备份内容,并不断将其转写至磁带上。磁带驱动器是被直接从主机映射到VBA上的,而不是作为从网络接入的设备。

半虚拟化(Paravirtualization)技术也叫超虚拟化,与完全虚拟化比较类似,都是通过虚拟机管理程序来访问底层硬件。不同的是半虚拟化虽然完全模拟整个底层硬件,但需要修改客户机操作系统部分访问特权状态的代码,以便能够直接与虚拟机监视器(Virtual Machine Monitor,VMM)交互。

这种混合式处理方案尚未见诸白皮书,但其产生无疑与对当前设备高效利用的诉求息息相关。它的工作状态相当令人赞赏,只要再稍加改进,我一定会在未来的部署工作中再次加以使用。

半虚拟化与完全虚拟化相比,不需要虚拟机管理程序编译和捕获特权指令,因此运行速度更快。缺点是需要修改客户机操作系统,用户使用比较困难。代表产品有Xen、Hyper-V等。

进步无止境

(3)部分虚拟化

新技术组合的不断引入使得任何一套虚拟化模式都无法长久保持不变。目前最新的上佳方案是IOMMU,它承诺为单独的虚拟机系统提供直接访问系统设备例如显卡)的能力。

部分虚拟化(Partial Virtualization)是指Hypervisor只模拟了部分底层硬件,因此客户机操作系统不做修改是无法在虚拟机中运行的,其他程序可能也需要进行修改。

虚拟机将有能力充分发挥GPGPU计算带来的强大性能,而处理速度的提升也会要求数据输入量达到光线通道传输能力的级别,这是分布式技术所无法满足的。

(4)硬件辅助虚拟化

硬件容错能力的提高使单台主机方案更具可靠性,而新的网络技术则将带宽扩大至40Gb、100Gb甚至更高。

硬件辅助虚拟化(Hardware Assisted Virtualization)是指借助硬件(主要是主机处理器)的帮助来实现高效的完全虚拟化,目标仍是完全虚拟化。借助硬件帮助创建虚拟机,监视并允许客户机操作系统独立运行。

到这里我们又说回起点。虚拟化始于大型机,而虚拟化又推动了x86在采纳新技术的道路上渐行渐远,这使得台式机与大型机的运作方式越来越接近。

在完全虚拟化和半虚拟化中,特权指令需要通过软件进行处理,而硬件的处理速度比软件快很多,因此可以用硬件来将大量的虚拟化逻辑从软件中抽离,极大简化了虚拟化产品架构。硬件辅助虚拟化技术往往不是单独使用,而是配合完全虚拟化和半虚拟化进行虚拟优化,起到辅助作用。现在市面的很多完全虚拟化和半虚拟化产品大多支持硬件辅助虚拟化,如VirtualBox、基于内核的虚拟机(KVM)、VMware Workstation、VMware ESX Server、Xen、VT-x、AMD-V等。

抛开相似之处不谈,大型机与x86虚拟主机集群之间仍然存在着本质性差异。

(5)操作系统级虚拟化

大型机的设计初衷是作为一套单独的运行实体。机架挨着机架、节点毗邻节点,从操作系统到个别节点连接绑定,一切都将大型机作为一台单独的巨型计算设备处理,最后对整体资源进行分割,进而分配给每个任务。

操作系统级虚拟化(Operating System Level Virtualization)是一种在服务器操作系统中使用的轻量级虚拟化技术,内核通过创建多个虚拟的操作系统实例(内核和库)来隔离不同的进程,不同实例中的进程完全不了解对方的存在。
使用操作系统级虚拟化,所有虚拟服务器必须运行同一操作系统(不过每个实例有各自的应用程序和用户账户),灵活性较差,但是操作系统级虚拟化只需要进行少量修改,实现成本较低且运行性能不错

x86虚拟集群则迥异于大型机。无论是直接连接式、分布式还是混合式,每个处理节点都是特色鲜明的独立单位。每节点都必须进行配置、授权、加以独立设计并考虑个体与整体间的协调。

 

大型机成本高昂,我们为之定制的软件在设计上也要求高质量,以配合系统的高性能。X86虚拟集群则是多套低廉系统的集合,使用现有软件即可满足需求。

目前使用较多的是服务器虚拟化,要实现服务器虚拟化必须实现服务器三大硬件资源的虚拟化。同时为了进行更好的动态资源管理,还必须实现服务器的动态迁移。下面介绍服务器三大硬件资源虚拟化和实时迁移技术。

大型机适用于那些运营着金融系统的客户,对于他们而言数毫秒的延迟都可能带来数百万美元的损失。如果我们的应用程序能够将工作量拆分为一个个小的组成部分,那么大型机的并行处理能力将带来耀眼的强劲表现。

1.CPU虚拟化

x86虚拟化从另一个角度来看类似于组装机。

CPU虚拟化就是通过抽象把单个物理CPU模拟成多个CPU并行,允许一台服务器上同时运行多个操作系统,多个操作系统相互独立,应用程序都可以在相互独立的操作系统环境内运行而互不影响。在任意一个时刻单个物理CPU内只能运行一个虚拟的CPU指令。CPU虚拟化的目的是提高CPU的性能和利用率。虚拟CPU的运行相互独立,互不干扰。多个虚拟机同时提供服务,使CPU长时间处于忙碌状态,大大提高了CPU的利用率。

数十年来,我们始终以单线程为核心开发并使用软件,对环保意识也不够重视,此外同一系统上的不同程序在运行时需要彼此隔离。改变这一切的方式就是发展x86虚拟化。

x86体系结构下CPU虚拟化可以用全虚拟化、半虚拟化或硬件辅助虚拟化实现。全虚拟化主要是使用二进制代码翻译技术和特权级压缩技术。二进制代码翻译技术是在虚拟机运行时,扫描并修改客户机的二进制代码将那些难以虚拟化的指令转化为支持虚拟化的指令。特权级压缩技术是让客户机和虚拟机管理程序运行在不同的特权级下。由于特权级不同,虚拟机管理程序可以截获一部分在客户机上执行的特权指令,并对其虚拟化。半虚拟化与全虚拟化不同,也采用特权级压缩技术,同时需修改客户机操作系统代码,将特权指令相关操作转换为对虚拟化管理程序(Hypervisor)的超级调用(Hypercall)来执行。全虚拟化和半虚拟化都是纯软件的CPU虚拟化,未修改x86处理器本身,中间开销较大。硬件辅助虚拟化使CPU加入新的指令集和运行模式来让虚拟机管理程序和客户机操作系统分别运行在合适的模式下,完成与CPU虚拟化相关的功能。目前两大处理器生产商Intel和AMD都推出了硬件辅助虚拟化产品,如Intel VT技术和AMD-V技术都是CPU硬件辅助虚拟化技术。

x86虚拟化模式无疑将继续前进,而这种趋势也必将适应x86应用程序自身的多样性。

2.内存虚拟化

如今不少方案都能帮我们高效地完成大量计算任务。大家既可以采购一台大型机,也可以将带有必要应用程序的多套x86系统安装在裸机上。

内存虚拟化是把物理的内存交给虚拟机管理程序统一管理,通常采用分块将其包装成多个虚拟的物理内存分配给若干个虚拟机使用,使每个虚拟机拥有各自独立的内存空间,互不干扰。虚拟机管理程序维护客户机物理地址到宿主机物理地址的映射关系。内存虚拟化的目标是做好虚拟机内存空间之间的隔离,分块共享的思想使整个虚拟机都认为自己拥有了整个内存地址。

我们完全可以大胆迈入x86虚拟化领域,并探索它所能带来的无数种可能性。我们甚至可以根据自己的意愿用数千台手机搭建一个难用无比的Beowulf集群。

x86体系结构下内存虚拟化同样可以用全虚拟化、半虚拟化或硬件辅助虚拟化实现。全虚拟化采用影子页表法(Shadow Page Table)技术,影子页表技术即客户机操作系统的内存页表记录的内存逻辑地址到客户机操作系统看到的“物理”地址映射关系,同时虚拟机管理程序维护一张对应的页表,记录客户机操作系统看到的“物理”地址到真实物理机的机器内存地址映射关系。虚拟机管理程序维护的页表随着客户机操作系统的页表变化而变化,故称为影子页表。当有内存访问时,虚拟机管理程序将影子页表交给内存管理单元(Memory Management Unit,MMU)进行地址转换,获取到内存的真实物理地址。采用影子页表技术代表产品有KVM、VMware Workstation、VMware ESX Server。半虚拟化采用页表写入技术,当客户机操作系统创建一个页表时,须向虚拟机管理程序注册该页表。之后在客户机运行的时候,虚拟机管理程序剥夺客户机操作系统的写权限,并不断管理和维护该页表。当客户机操作系统上的程序访问内存时,可以直接在自己的页表内获得真实的机器地址。Xen是采用页表写入技术的代表。硬件辅助虚拟化采用扩展页表(Extended Page Table,EPT)技术,扩展页表技术通过使用硬件使其在原有的页表基础上增加一个页表,增加的页表称为扩展页表。通过这个页表,客户机操作系统上的程序访问内存时,可以直接将客户机的内存地址翻译为真实的机器地址,从而减轻整个内存虚拟化带来的开销。

当下,在完成工作的道路上再也没有所谓“惟一正确的途径”。我们软件的需求以及硬件所能提供的性能将最终决定实现目标的路线。

3.I/O接口虚拟化

虚拟化如今已经成为一个被过分夸大的流行语。 在大型机领域,它已经是一张盘桓了数年的老面孔。它的主要功绩在...

I/O接口虚拟化即把物理机的真实设备统一管理,包装成多个虚拟设备分配给若干个虚拟机使用,响应每个虚拟机的设备请求和I/O请求。I/O接口虚拟化包括虚拟网卡和虚拟交换机。I/O接口虚拟化的目标不仅是让虚拟机能准确、快速访问到它们所需的I/O资源,而且要做好它们之间的隔离工作,避免出现混乱,更重要的是在提高I/O资源利用率的同时减轻由虚拟化带来的开销。

x86体系结构下I/O接口虚拟化同样可以用全虚拟化、半虚拟化或硬件辅助虚拟化实现。全虚拟化是完全模拟I/O设备来实现的。半虚拟化是采用前端/后端模拟,Xen就是采用该方法。硬件辅助虚拟化是采用直接划分,直接将物理设备分配给某个客户机操作系统,由客户机操作系统直接访问I/O 设备(不通过虚拟机管理程序)。目前使用硬件辅助虚拟化I/O技术的主要有Intel 的VT-d、AMD的IOMMU、 PCI-SIG的IOV(I/O Virtualization)等。

4.实时迁移技术

实时迁移(Live Migration)技术是指在保证虚拟机上服务正常运行的同时,将虚拟机的运行状态完整快速地从源主机硬件平台迁移到新主机上。移动过程用户不会察觉,虚拟机只需要非常短暂的停机时间。

实时迁移过程需要虚拟机管理程序协助,即需要源主机和目的主机上的虚拟机管理程序相互配合,完成虚拟机运行状态的完整复制。复制开始前,目的主机要清理资源,确保有足够的资源空间接收这个虚拟机。复制开始后,内存页面不断地从源主机复制到目的主机,复制过程对源主机的运行不产生影响。当复制完成后,目的虚拟机运行,源虚拟机终止,实时迁移过程完成。

实时迁移可以用于排除危险,资源维护,资源优化。当一个虚拟机资源紧张时,可以实时迁移到另一台资源较多的主机上,且迁移过程不影响虚拟机的运行。在一个虚拟机需要维护时,可暂时把虚拟机迁移到另一台主机上,维护后可再迁移回来,整个过程用户感觉不到任何变化。把虚拟机从一个资源紧张的主机上迁移到资源充裕的主机上,便于虚拟机整合,资源优化。

目前使用较多的两种实时迁移技术是VMware的vMotion技术和Xen的Live Migration技术。Xen的Live Migration技术采用预复制迁移,相比简单的停止复制,迁移过程所需要的虚拟机停机时间大大缩短。

 

 

 

2.3.2 数据存储的几种模式

海量的数据存储是如今计算机存储研究的热点和难点。海量数据存储面临着难管理、不易扩展、访问效率较低、安全性等问题。因此适合海量数据存储的理想模式必须能够具有访问高效率、易扩展性、跨平台性好、高可靠性、高安全性等的数据共享能力。

数据存储模式分类如图2-3所示。
图片 4  

数据存储根据服务器类型分为封闭系统的存储和开放系统的存储。封闭系统主要是指大型机,不对外开放,自己独立地运行。而开放系统一般指基于包括Windows、Linux、Mac OS等操作系统的小型工作站,不同的工作站点间通过网络连接起来,协同合作实现复杂的计算。开放系统的存储分为:内置存储和外挂存储。内置存储是指固化在硬件设备上的存储。外挂存储是指通过总线连接到服务器的存储。开放系统的外挂存储根据连接的方式又分为:直连式存储 (Direct-Attached Storage,DAS)和网络化存储(Fabric-Attached Storage,FAS)。直连式存储往往是通过SCSI连接,网络化存储通过网线连接。网络化存储根据传输协议的不同又分为:网络附加存储(Network-Attached Storage,NAS)和存储区域网络(Storage Area Network,SAN)。

NAS是将存储设备作为存储系统的附加设备,通过网络连接到系统中。网络附加存储是一个相对于普通服务器只少了大量计算功能的专用文件服务器,因此它的功能很完备。它是一种将分布、独立的数据整合为大型、集中化管理的数据中心,以便于对不同主机和应用服务器进行访问的技术。NAS是一种文件级的网络存储模式,结构如图2-4所示。NAS拥有自己的文件系统,一般通过网络文件系统(Network File System,NFS)或通用因特网文件系统(Common Internet File System,CIFS)对外提供文件访问服务。NAS 提供统一的存储接口,所有的存储设备连接到现有网络的网络拓扑结构相同,因此NAS的共享性很好。NAS不仅仅是作为存储设备,更多的是作为数据备份和恢复的设备。
图片 5  

SAN是一种快速的专用子网,子网内部是通过光纤交换机、光纤路由器、光纤集线器等网络连接设备,将磁盘阵列、磁带等存储设备与相关服务器连接起来的。SAN是一种块级的网络存储模式,结构如图2-5所示。存储区域网络根据连接的方式分为光纤通道(Fiber Channel,FC)SAN和IP SAN。FC SAN是以光纤通道作为传输介质,克服了传统上与小型计算机系统接口(Small Computer System Interface,SCSI)相连的线缆限制,极大地拓展了服务器和存储之间的距离,从而增加了更多连接的可能性。但是FC SAN的传输距离通常不超过50公里。即使这样,对于局域网来讲,一般足够了。IP SAN技术是一种在传统IP以太网上架构一个SAN存储网络,通过IP以太网把服务器与存储设备连接起来的SAN存储技术。IP SAN技术采用的是集中存储方式,大大提高了存储空间的利用率。

NAS的优点是跨平台性非常好,在不同平台上实现数据共享非常方便,但是NAS 服务器位于客户端与存储设备中间,处于数据传输链路上,当服务的请求数激增时,位于中心的NAS 服务器处理能力将成为整个存储系统的I/O瓶颈,存储性能的瓶颈是NAS 未能在存储模式中独占鳌头的原因。相比而言,SAN具有高容量、高可靠性、快速传输等优点,同样SAN也有一个缺陷是跨平台性较差,由于没有统一的存储系统接口,数据共享不方便。鉴于NAS和SAN的优缺点,对象存储技术综合了NAS 和SAN 两种存储结构的优势,同时具有了NAS的共享数据优势和SAN的快速直接访问优势。对象存储技术提供基于对象的访问接口,对象更接近于人们的自然生活,更容易被人接受。
图片 6  

对象存储(Object-Based Storage,OBS) 一般由三部分组成: Client、MDS(Metadata Server)和对象存储设备(Object Storage Device,OSD),结构如图2-6所示。OBS是一种对象级的存储模式。Client 为客户端,是用户直接接触的部分,主要用来发送数据操作请求,包括数据的读写等;MDS为元数据服务器,是对象存储系统的基础,主要负责元数据的管理,并保证数据访问的一致性;OSD是对象存储系统的基础,是对象数据的存储设备。相比一般的存储设备磁盘,OSD类似于一个小型的计算机,拥有自己的处理器、内存、存储磁盘、网络接口等,主要功能是管理本地的对象(Object)。OSD是Object的集合。Object是对象存储的基本单元。每个Object包含两部分:文件的数据和数据属性集。数据的属性集记录数据的属性,这些属性可以由管理员自定义。数据的属性显示数据的特征,方便数据同步等操作。在传统的存储中,块设备需要记录每个存储数据块在设备上的位置,既需要占用一定的空间,管理又比较麻烦;对象存储中OSD具有一定的智能,Object维护自己的属性,大大简化了存储系统管理的复杂性,将管理任务分解,减轻了存储系统的管理压力,同时增加了灵活性。

虽然现在面向对象存储仍属于在研阶段,并没有市场化,但它更接近自然语言描述事物,相比其他存储技术,对象存储技术具有高性能优势、存储设备智能化、数据共享更容易、管理更方便、更好的安全性等优点。对象存储是数据存储技术的未来发展方向。

本文由澳门新萄京官方网站发布于服务器运维,转载请注明出处:怎样为服务器虚构化挑选合适的情势,云服务器

关键词: