windows2008 仲裁盘符数据盘不在同一个服务器可以吗

windows2008 仲裁盘符数据盘不在同一个服务器可以吗,第1张

windows server 2008 cluster 环境如下: 3台vmware workstation 服务器。分别第一个磁盘为仲裁盘,1GB。其他盘可以根据需求决定。注意,仲裁盘的盘符要

医院是一个高度依赖信息系统运行的机构,如今从看病挂号到检查拿药,每个环节都是医生、患者与信息系统三者协同完成的。信息化使得医生看病诊断以及对患者信息管理等工作变得更加高效,但是,一旦HIS、PACS等信息系统发生故障,医院的诸多业务也将马上中断,后果不堪设想。

可靠性高于一切的医院信息化系统

相比性能与丰富的功能,可靠性始终是医院信息化系统的首要考量因素,因为一旦服务器宕机,业务中断马上会造成大量病人无法得到及时救治。数据中心的稳定为患者提供持续化的服务,数据中心的高效为医院带来更大的利润空间。可见,可靠性作为基石,高效作为亮点,已经成为医院信息化建设原则。

正是因为医院对业务连续有着近乎苛刻的需求,双活数据中心解决方案得以在医院的应用和普及。从2005年最早的主机双活,到之后的网关双活,再到如今基于阵列的双活方案,医院IT双活解决方案已经发展了十余年。

双活方案在医院

早期的主机双活以及之后的网关双活分别借助主机镜像软件以及虚拟化网关实现,目的都是避免底层存储故障造成的业务中断。但是主机双活需要每台主机上都安装镜像软件,而网关双活则需要增加网关设备,两者运维复杂度和成本都非常高。

当前双活解决方案已经进一步简化,以华为OceanStor Dorado V3为代表的阵列双活方案摆脱了对网关的依赖。对于块业务的医院信息化系统,基于OceanStor Dorado V3的华为HyperMetro 免网关阵列双活方案无疑是双活的最优选择。

OceanStor Dorado V3

高可用与高性能一个都不能少

双活是数据中心级的解决方案,需要存储阵列、主机以及网络的紧密配合。华为 HyperMetro 免网关阵列双活方案,是由两套独立的 OceanStor Dorado V3 存储系统同时提供两个实时一致的数据副本供业务主机读写访问,任意一副本故障,都不影响业务的连续运行。当下可靠性与性能最高的双活整体解决方案是华为KunLun与OceanStor Dorado V3的组合。

KunLun+ OceanStor Dorado V3

打造业界最可靠、最高效的双活解决方案

华为KunLun拥有可以媲美小型机的RAS20高可靠架构,并且实现了KunLun的CPU与内存热插拔功能,通过充分的故障预测机制,将可能发生故障的内存组件进行标记,并对故障内存进行在线隔离。随后对内存进行热插拔 *** 作。这项技术使得内存故障引发的计划外宕机时间缩减为0。

对于医院而言,既有数据库为核心的HIS系统,又有存储大量影像资料的PACS系统,这种现状使得统一存储成为必需。另一方面OceanStor Dorado V3全闪存阵列支持SAS和PCIe接口的SSD,通过自研的控制器芯片以及磨损均衡算法,OceanStor Dorado V3的SSD组件级的高可靠以及高性能得以保障。性能方面,OceanStor Dorado V3可以实现400万IOPS的同时保障05ms延迟,在性能上具有传统磁盘阵列无法比拟的优势,而可用性更是可以做到6个9,全面保障业务连续。

解决方案层面,华为HyperMetro免网关阵列双活方案提供双重仲裁模式,既支持第三方仲裁和预定优先两种模式,又支持两种模式间自动转换。第三方仲裁可以采用物理或者虚拟服务器的方式实现,且生产中心与仲裁服务器只需要 IP 网络可达即可,相比传统的FC方案成本更低。

此外,即便第三方仲裁发生故障,华为 HyperMetro 免网关双活方案可自动进入预定优先模式,较传统双活方案的仲裁机制更完善,业务连续性更高。双活架构不仅可以提高系统可靠性,保障业务连续,同时也可以实现业务就近访问,以求缩短I/O路径,降低数据传输量系统延迟。

某三甲医院双活方案实践

上图是某三甲医院的一个典型的双活系统架构,针对传统小型机搭配磁盘阵列的性能不足以及存在单点风险,华为为其构建了基于OceanStor Dorado V3全闪存阵列的HyperMetro双活解决方案。HIS等关键业务系统统一部署于全闪存阵列上,消除存储系统性能瓶颈,同时借助HyperMetro技术将两台OceanStor Dorado V3阵列组合成为相互冗余的集群,消除单点故障。上层则部署全网x86服务器,采用高性能机架服务器构成双机系统承载数据库等关键业务。

OceanStor Dorado V3从SSD等组件到阵列拥有一系列的软硬件核心技术,保障其高可靠性以及高性能,同时借助HyperMetro技术可以为医院高效地构建双活系统。免网关、统一存储以及全面的自动化设计使得系统运维复杂度将至最低。对于医院一类需求众多并且要求十分严苛的客户,OceanStor Dorado V3与华为KunLun等服务器搭配的双活系统无疑是当下业界最佳方案。

要尽量使用奇数个节点而不要使用仲裁节点

当仲裁节点挂掉后,若Primary节点正常,则不影响正常使用,将仲裁节点恢复即可;若在仲裁节点恢复之前,Primary节点就挂了,这时候因无法进行选择投票,所以只有secondary节点而没有Primary节点,因此只能进行检索 *** 作无法进行更新 *** 作,此时若将仲裁节点恢复,将会重新选举出Primary节点,集群重新恢复正常功能。

做系统自带的cluster的话,仲裁盘和数据盘必须都要有的!你应该做的事SQL的群集吧,sql在安装的时候就不能独立安装了,得选择故障转移安装了。现在微软有镜像行的故障转移群集,镜像性的就不需要盘阵的支持了!

一、集群的基本概念有一种常见的方法可以大幅提高服务器的安全性,这就是集群。Cluster集群技术可如下定义:一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以管理。此单一系统为客户工作站提供高可靠性的服务。大多数模式下,集群中所有的计算机拥有一个共同的名称,集群内任一系统上运行的服务可被所有的网络客户所使用。Cluster必须可以协调管理各分离的组件的错误和失败,并可透明地向Cluster中加入组件。一个Cluster包含多台(至少二台)拥有共享数据存储空间的服务器。任何一台服务器运行一个应用时,应用数据被存储在共享的数据空间内。每台服务器的 *** 作系统和应用程序文件存储在其各自的本地储存空间上。Cluster内各节点服务器通过一内部局域网相互通讯。当一台节点服务器发生故障时,这台服务器上所运行的应用程序将在另一节点服务器上被自动接管。当一个应用服务发生故障时,应用服务将被重新启动或被另一台服务器接管。当以上任一故障发生时,客户将能很快连接到新的应用服务上。二、集群的硬件配置镜像服务器双机集群中镜像服务器双机系统是硬件配置最简单和价格最低廉的解决方案,通常镜像服务的硬件配置需要两台服务器,在每台服务器有独立 *** 作系统硬盘和数据存贮硬盘,每台服务器有与客户端相连的网卡,另有一对镜像卡或完成镜像功能的网卡。镜像服务器具有配置简单,使用方便,价格低廉诸多优点,但由于镜像服务器需要采用网络方式镜像数据,通过镜像软件实现数据的同步,因此需要占用网络服务器的CPU及内存资源,镜像服务器的性能比单一服务器的性能要低一些。有一些镜像服务器集群系统采用内存镜像的技术,这个技术的优点是所有的应用程序和网络 *** 作系统在两台服务器上镜像同步,当主机出现故障时,备份机可以在几乎没有感觉的情况下接管所有应用程序。因为两个服务器的内存完全一致,但当系统应用程序带有缺陷从而导致系统宕机时,两台服务器会同步宕机。这也是内存镜像卡或网卡实现数据同步,在大数据量读写过程中两台服务器在某些状态下会产生数据不同步,因此镜像服务器适合那些预算较少、对集群系统要求不高的用户。硬件配置范例:网络服务器 两台服务器 *** 作系统硬盘 两块服务器数据存贮硬盘 视用户需要确定服务器镜像卡(部分软件可使用标准网卡) 两块网络服务网卡 两块三、双机与磁盘阵列柜与镜像服务器双机系统相比,双机与磁盘阵列柜互联结构多出了第三方生产的磁盘阵列柜,目前,豪威公司、精业公司等许多公司都生产有磁盘阵列柜,在磁盘阵列柜中安装有磁盘阵列控制卡,阵列柜可以直接将柜中的硬盘配置成为逻辑盘阵。磁盘阵列柜通过SCSI电缆与服务器上普通SCSI卡相连,系统管理员需直接在磁盘柜上配置磁盘阵列。双机与磁盘阵列柜互联结构不采用内存镜像技术,因此需要有一定的切换时间(通常为60?D?D180秒),它可以有郊的避免由于应用程序自身的缺陷导致系统全部宕机,同时由于所有的数据全部存贮在中置的磁盘阵列柜中,当工作机出现故障时,备份机接替工作机,从磁盘阵列中读取数据,所以不会产生数据不同步的问题,由于这种方案不需要网络镜像同步,因此这种集群方案服务器的性能要比镜像服务器结构高出很多。双机与磁盘阵列柜互联结构的缺点是在系统当中存在单点错的缺陷,所谓单点错是指当系统中某个部件或某个应用程序出现故障时,导致所有系统全部宕机。在这个系统中磁盘阵列柜是会导致单点错,当磁盘阵列柜出现逻辑或物理故障时,所有存贮的数据会全部丢失,因此,在选配这种方案时,需要选用一个品质与售后服务较好的产品。硬件配置范例:网络服务器 两台服务器 *** 作系统硬盘 两块第三方生产的磁盘阵列柜 一台磁盘柜专用SCSI电线 两根磁盘阵列柜数据存贮硬盘 视用户需求确定网络服务网卡 两块除此之外,一些厂商还有更优秀的技术的解决方案,比如 HP四、HP双机双控容错系统HP NetServer为双机双控容错系统提供了高品质和高可靠的硬件基础……HP双机双控容错系统结合了HP服务器产品的安全可靠性与Cluster技术的优点,相互配合二者的优势。硬件配置范例:HP L系统的网络服务器 两台服务器 *** 作系统硬盘 两块HP硬盘存贮柜(SS/6,RS/8,RS/12) 一台磁盘柜专用SCSI集群适配电缆 两根磁盘柜数据存贮硬盘 视用户需求确定HP集群专用阵列卡 两块网络服务网卡 两块五、HP光纤通道双机双控集群系统光纤通道是一种连接标准,可以作为SCSI的一种替代解决方案,光纤技术具有高带宽、抗电磁干扰、传输距离远、质量高、扩展能力强等特性,目前在FC-AL仲裁环路上可接入126个设备。光纤设备提供了多种增强的连接技术,大大方便了用户使用。服务器系统可以通过光缆远程连接,最大可跨越10公里的距离。它允许镜像配置,这样可以改善系统的容错能力。服务器系统的规模将更加灵活多变。SCSI每条通道最多可连接15个设备,而光纤仲裁环路最多可以连接126个设备。光纤集群系统组成:
HP光纤集群系统硬件设备包括有两台HP服务器(需支持光纤卡,目前有LC2000、LH3000、LH4、 LH6000、LT6000、LXr8000、LXR8500)及光纤适配卡,可以使用RS/12FC光纤磁盘阵列柜,需另加一对或两对网卡用于心跳检测和与客户端连接。在配置过程中还需另外选配光纤卡到光纤存贮设备的光纤电缆。硬件配置:HPL系统的网络服务器 两台服务器 *** 作系统硬盘 两块HP光纤阵列存贮柜(RS/12FC) 一台光纤磁盘柜专用光纤电缆 两根光纤磁盘柜数据存贮硬盘 视用户需求确定HP光纤适配卡 两块网络服务网卡 两块六、集群的软件配置基于NT平台的集群软件Microsoft的MSCS,也有许多第三方的专业软件公司开发的集群软件,如豪威的DATAWARE,VIN CA公司的STANDBY SERVER,NSI公司的DOUBLE-TAKEMS WolfPack的特点MS WolfPack是MS Cluster server的别称,是 微软针对Cluster技术研制开发的双机软件。它集成在NT SERVER上,支持由二台机器组成的双机系统,提供一种高可用且易管理的应用环境。主要特点:自动检测和修复服务器或应用程序的错误可实现对服务器中应用程序的切换可通过TCP/IP连接各种客户端,如MS-DOS、WINDOWS 3X/9X/NT,Apple Macintosh、UNIX等生产主机无需人工干涉即可自动恢复数据并接管任务易管理性:可自动审核服务器和应用程序的工作状态可建立高可用性的应用程序、文件共享、打印请求等可灵活设置应用程序和数据的恢复策略简单 *** 作即可进行应用程序的离线,重新再线,服务器间的迁移。目前,WINDOWS 2000 Advanced Server与WINDOWS 2000 DataCenter Server都集成有更先进集群技术。其它的网络 *** 作系统平台上也有许多集群软件,比如:基于novell平台的集群软件有Novell HA Server、Novell SFT III基于sco UNIX平台的集群软件有Sentinel集群软件基于Linux平台的集群软件有TurboCluster七、集群技术的发展趋势集群技术随着服务器硬件系统与网络 *** 作系统的发展将会在可用性、高可靠性、系统冗余等方面逐步提高。未来的集群可以依靠集群文件系统实现对系统中的所有文件、设备和网络资源的全局访问,并且生成一个完整的系统映像。这样,无论应用程序在集群中的哪台服务器上,集群文件系统允许任何用户(远程或本地)都可以对这个软件进行访问。任何应用程序都可以访问这个集群任何文件。甚至在应用程序从一个节点转移到另一个节点的情况下,无需任何改动,应用程序就可以访问系统上的文件。在今天,利用服务器的集群技术,通过周密计划和网络维护,系统破坏的机率是非常小的。所以,企业服务器的稳定必须使用集群技术。

在传统的终端/主机的网络模式时代,终端功能简单,无需维护工作,在主机一端进行专门的管理与维护,具有资源共享、便于管理的特点。但是,主机造价昂贵,终端没有处理能力,限制了网络的规模化发展。之后的客户机/服务器模式推进了计算产业的标准化和开发化的发展,为系统提供了相当大的灵活性,但是随着分布系统规模的规模扩大,系统的维护和管理带来了巨大的开销。
面向Internet的服务型应用,需要高性能的硬件平台作为支持,将并行技术应用在服务器领域中,是计算机发展的必然趋势。并行处理技术在高性能计算领域中,高可用和高性能是集群服务器系统发展的两个重要方向。
集群的概念
集群英文名称是CLUSTER,是一组相互独立的、通过高速网络互联的计算机,它们构
成了一个组,并以单一系统的模式加以管理。一个客户与集群相互作用时,集群像是一个独立的服务器。集群配置是用于提高可用性和可缩放性。
和传统的高性能计算机技术相比,集群技术可以利用各档次的服务器作为节点,系统造价低,可以实现很高的运算速度,完成大运算量的计算,具有较高的响应能力,能够满足当今日益增长的信息服务的需求。
集群技术应用的需求
Internet用户数量呈几何级数增长和科学计算的复杂性要求计算机有更高的处理能力,而CPU的发展无法跟上不断增长的需求,于是我们面临以下问题:
●大规模计算如基因数据的分析、气象预报、石油勘探需要极高的计算性能。
●应用规模的发展使单个服务器难以承担负载。
●不断增长的需求需要硬件有灵活的可扩展性。
●关键性的业务需要可靠的容错机制。
IA集群系统(CLUSTER)的特点
●由若干完整的计算机互联组成一个统一的计算机系统;
●可以采用现成的通用硬件设备或特殊应用的硬件设备,例如专用的通讯设备;
●需要特殊软件支持,例如支持集群技术的 *** 作系统或数据库等等;
●可实现单一系统映像,即 *** 作控制、IP登录点、文件结构、存储空间、I/O空间、作业管理系统等等的单一化;
●在集群系统中可以动态地加入新的服务器和删除需要淘汰的服务器,从而能够最大限度地扩展系统以满足不断增长的应用的需要;
●可用性是集群系统应用中最重要的因素,是评价和衡量系统的一个重要指标;
●能够为用户提供不间断的服务,由于系统中包括了多个结点,当一个结点出现故障的时候,整个系统仍然能够继续为用户提供服务;
●具有极高的性能价格比,和传统的大型主机相比,具有很大的价格优势;
●资源可充分利用,集群系统的每个结点都是相对独立的机器,当这些机器不提供服务或者不需要使用的时候,仍然能够被充分利用。而大型主机上更新下来的配件就难以被重新利用了。
实现服务器集群的硬件配置
●网络服务器 两台
●服务器 *** 作系统硬盘 两块
●ULTRA 160 LVD SCSI磁盘阵列 一个
●18G SCSI硬盘 三块
●网络服务网卡 四块
服务器集群的实践步骤
●在安装机群服务之前的准备:
1、 三块18G SCSI硬盘组成磁盘阵列,做RAID5。
2、 两台服务器要求都配置双网卡,分别安装Microsoft Windows 2000 Advance Server *** 作系统,并配置网络。
3、 所有磁盘必须设置成基本盘,阵列磁盘分区必须大于2个。
4、 每台服务器都要加入域当中,成为域成员,并且在每台服务器上都要有管理员权限。
●安装配置服务器网络要点
1、在这一部分,每个服务器需要两个网络适配器,一个连接公众网,一个连接内部网(它只包含了群集节点)。 内部网适配器建立点对点的通信、群集状态信号和群集管理。每个节点的公众网适配器连接该群集到公众网上,并在此驻留客户。
2、安装Microsoft Windows 2000 Adwance Server *** 作系统后,开始配置每台服务器的网络。在网络连接中我们给连接公众网的命名为"外网",连接内部网的命名为"内网"并分别指定IP地址为:
节点1:内网:ip:10101011 外网ip:1921680192 子网掩码:2552552550 网关:1921680191(主域控制器ip)
节点2:内网:ip:10101012 外网 ip:1921680193 子网掩码:2552552550 网关:1921680191
●安装配置阵列
1、对阵列做可校验的RAID5。并划分分区。创建一个小分区(至少50兆)用来存储群集
配置数据库的检测点和日志文件。这是集群中一个重要的关键分区,一但他出现故障,将导
致整个集群的失败。这里我们分配给他1G的空间,并命名为X盘符。
2、其他的分区根据用户的需求可以自行设定。我们为了方便只分了一个Y区。
3、注意:在集群中所有的磁盘都必须是基本盘并且都要采用NTFS格式。
●安装集群服务软件
配置首节点
1、所有的设备都先关闭(两台服务器、一台磁盘阵列)。
2、先开启磁盘阵列(在任何时候都要先开启磁盘阵列,以免造成磁盘混乱)。
3、开启节点1,用有管理员权限的用户名登陆到域,用添加删除程序来添加组件-集群服
务。在安装过程中选择这是集群的首节点。创建集群名称。我们给命名为Mycluster。
5、 配置群集磁盘。由于我们只有一个共享的磁盘阵列,所以我们将这个阵列中的两个分区
都配置成群集磁盘。
6、配置群集网络。首先我们配置外网,网络名称选择外网。IP地址保持和外网的IP地址一致。选中该网络可用于集群服务。选中所有的通信(混合网络)选项。进行下一步。接下来配置内网,确保网络名称和IP地址跟内网的一致,选中该网络可用于集群服务。选中只用于内部群集通信选项。
7、 点击下一步按钮,屏幕出现使用网络的顺序。我们调整为表里的第一个连接是内网。这是因为:在正常的 *** 作中,该连接将用于群集通信。如果内部网络连接失效,群集服务将自动切换到表里的下一个网络。
8、执行下一步将出现集群的IP和掩码选项。这里输入唯一的集群IP,我们设定为1921680195 掩码当然还是:2552552550。
9、单击完成,完成首节点的群集配置。
配置第二个节点
1、保持阵列和第一个节点的开机和可用。给第二个节点上电开机。
2、象在首节点上安装群集服务一样,对第二个节点开始进行安装。
3、过程跟在首节点上在安装群集服务大体相同,只有下列的不同之处:
在创建或添加群集对话框中,在群集中选择第二个或下一个节点,并单击下一步。
输入前面所创建的群集名称(在本例中,是MyCluster),并单击下一步。
将连接到群集设为未选中。群集服务配置向导将自动提供,在安装首节点时选定 的用户帐号名称。
输入该帐号的口令(如果有的话),并单击下一步。
在下一个对话框中,单击完成,结束配置。
将启动群集服务。单击确定。
关闭添加/删除程序
如果要安装额外的节点,重复这些步骤,以便在其它节点上安装群集服务。
检验安装
单击开始,单击程序,单击管理工具,并单击群集管理器。显示的两个节点表明,存在群集,而且它在运行。
效能评测
●容错能力的检验
对于他的容错能力我们做了以下几个实验:
1、在两台节点和集群服务同时运行的情况下,断掉其中一个节点的外网连接或是当掉一台节点,此时运行在这个节点上的集群服务被迫断开并转移到另外一个连接正常的节点上,此过程大概要4秒钟(视集群上运行的服务数量而定,在安装了SQL Server 2000服务之后这个过程延长到了9-15秒)。
2、在两台节点和集群服务同时运行的情况下,我们更改了一台节点的时间,在经过大约10分钟时间被修改的时间自动调整成同另一台节点相同的设置。
3、我们在集群服务上开启了web服务,并设置了下载项目。在客户端正在下载过程中断掉集群中的一个节点,客户端并没有明显的感觉出有变化。
由以上实验可见用Windows 2000 Advance Server所做的集群在容错方面具有良好的效能,他几乎是瞬间就能把出错的节点上的服务接管过来,相对于客户端几乎感觉不到有任何变化。同时他在周期时间内所有节点进行同步,以保证其一致性。
●负载均衡能力的检验
1、 Windows 2000 Advance Server 所做的集群是基于TCP/IP构建的,他为共同工作且使用两个或两个以上主机群集的Web服务器提供了高度可用性和可伸缩性。因特网客户使用单一的IP地址访问群集。客户不能将单一服务器从群集中区分开来。服务器程序不能识别它们正运行于一个群集中。但是,由于网络负载均衡群集即使在群集主机发生故障的情况下仍能提供了不间断的服务,故而,它与运行单一服务器程序的单一主机大相径庭。与单一主机相比,群集还能对客户需求做出更迅捷的反应。
注意要点
我们在做集群实验的过程当中遇到了一些问题,虽然最后都顺利的解决了,但我想还是要在这里提出来让大家注意,避免在今后的工作中出现不必要的重复的错误。
1、共享磁盘之中X盘的重要性。在实验的过程中我们也知道X盘相当重要,为了验证他的重要地位,我们做了如下实验:我们首先看到在X盘下面只有一个MSDN的文件夹,其中有两个文件tmp和log,这就是上文所说的群集配置数据库的检测点和日志文件。我们试着删除这两个文件,结果tmp可以删除,log文件正在使用而无法删除。删除了tmp文件之后我们重新启动两台节点和集群。一切正常,进入X盘看他的文件,发现被删除的tmp文件又重新回到了里面,只是名字稍有些改变。这表明tmp文件是每次集群启动时自动生成的一个文件,而集群启动以后,这个文件就不在被使用。接着我们进行了一个后来被证明
是毁灭性的实验,我们在我的电脑管理里面的调整了磁盘管理,把X盘删除了。结果可怕的事情发生了,在不到10秒钟的时间内两台节点相继报告机群服务发生错误将不能运行且终止服务。我们尝试再次进入磁盘管理,发现阵列的磁盘已经变成了不可读取。无奈之下我们重新启动所有设备,期望能发生超乎设想的好的结果,但是事实让我们不得不失望。集群服务无法启动,阵列磁盘不可读取。在没有任何办法的情况下我们不得不重新配置集群。


欢迎分享,转载请注明来源:内存溢出

原文地址: https://www.outofmemory.cn/zz/13413359.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-07-31
下一篇 2023-07-31

发表评论

登录后才能评论

评论列表(0条)

保存