文件服务器的功能有那些

文件服务器的功能有那些,第1张

51 文件服务器的配置在Windows Server 2003系统的文件系统中,引入了许多新的或改进特性,如DFS(分布式文件系统)、EFS(加密文件系统)、共享文件夹的卷影副本、远程文档共享、SAN技术支持等。具体参见本书的第1章相关内容。511 文件服务器的主要功能在企业网络中,为了有效地进行各项文件管理功能,通常是把一台运行Windows Server 2003系统的成员服务器配置成"文件服务器"(并非一定是域控制器)。文件服务器提供网络上的中心位置,可供存储文件并通过网络与用户共享文件。当用户需要重要文件(如项目计划)时,他们可以访问文件服务器上的文件,而不必在各自独立的计算机之间传送文件。如果网络用户需要对相同文件和可通过网络访问的应用程序访问权限,就要将该计算机配置为文件服务器。默认情况下,文件服务器角色安装有下列功能。1.文件服务器管理
文件服务器管理控制台为管理文件服务器提供集中的工具。使用文件服务器管理,可以创建和管理共享,设置配额限制,创建存储利用情况报告,将数据复制到文件服务器和从文件服务器中复制数据,管理存储区域网络(SAN),以及与UNIX和Macintosh系统共享文件。
2.存储报告
使用存储报告,可以分析服务器上的磁盘空间是如何使用的。例如,可以生成识别重复文件的按需或计划报告。然后删除这些复制文件以便回收磁盘空间。
3.配额和文件屏蔽
使用配额,可以限制卷或文件夹子树大小。可以将Windows配置为在达到配额限制时通知您。使用文件屏蔽,可以防止某些类型的文件被保存到文件夹或卷。文件屏蔽有助于确保用户不在服务器上保存某些可能导致用户违反知识产权法的非关键性数据和文件。
4.DFS管理
使用"DFS管理"管理单元,可以管理从分支机构中的服务器到集线器数据中心中的服务器的数据复制。这样,数据可以被集中备份,而不必在在分支机构备份数据。使用"DFS管理"管理单元,还可以对位于不同服务器上的共享文件夹进行分组并将其作为虚拟文件夹树(称为"名称空间")提供给用户。名称空间可以提供很多好处,包括提高数据的可用性、分担负载和简化数据迁移。

SAN是计算机工作者们为了优化DAS而提出的另一种设计思想,它并没有试图在功能上将应用服务和存储服务完全解耦,而是希望服务器与存储设备之间通过专用光纤网络实现高速互连。如图1所示,一个SAN系统通常包括服务器连接器件、存储网络连接器件、存储设备和管理软件四部分组成,其中存储网络连接器件又可以细分为光纤通道集线器、光纤通道交换机和存储路由器等设备。
图1 SAN系统组成
从设计角度来看,只要购买一个NAS服务器通过标准网络协议加入网络,就可以享受文件级的存储服务了;但是如果打算采用SAN设计存储网络的话,不仅需要购买服务器连接器件、存储网络连接器件、存储设备和管理软件,还需要事先规划设计好存储网络的拓扑结构。从使用上来看,SAN采用专用的光纤网络实现数据存取,能够获得高性能;而NAS服务器与应用服务器共用一套网络,性能比拼上明显无法占据上风。
可以看出,NAS和SAN各有所长,各有所短,实际使用中应该根据实际情况选择合适自己的技术。近些年来,随着主流NAS厂商开始向其NAS设备增加类似SAN的光纤通道和iSCSI功能,NAS和SAN之间的界限已经越来越模糊,也许不久的将来两者将会迎来越来越多的重叠。
那么到底是哪种技术,哪家厂商的方案是最佳的呢哪种方案会成为存储虚拟化大赛中的最终胜者呢现在更多的专家认为,这场竞赛没有最后的赢家,越来越多人认为这三种技术应当结合使用。
如果我们把厂商和各自的虚拟化技术对号入座,那么三个虚拟化阵营都各自有一些代表厂商。虚拟化应用阵营的代表有SVC、StorAge、NetworkAppliance设备以及NSS SED (Service-Enabled Devices)飞康。而在磁盘阵列和光纤通道阵营里,HDS、Sun、hp以及Acopia提供了多样化的体系结构。交换机阵营则包括Invista、McData、Brocade、QLogic以及Cisco公司。
在虚拟化应用阵营中比较有代表性的厂商是飞康,飞康 NSS 是一款灵活的存储虚拟化解决方案,能够对整个企业内的存储资源进行高效、经济的供给和集中管理。飞康 NSS有助于最大化存储利用率,降低总存储成本和提高员工生产力。企业可以继续利用现有的存储投资,从而降低购置总成本 (TCO)。飞康 NSS 使 IT 管理员能够根据业务应用程序服务级别协议 (SLA) 定义适当的业务持续性策略,从而实现更加面向服务的应用程序方法和数据可用性。
对于另外两个阵营来说,由于McData,Brocade,Cisco等其他一些公司已经针对基于光纤通道虚拟化进行了一系列公司收购与合作,似乎不同类别方案之间的分界线已经变得模糊起来。其他两个阵营中的厂商中有些也正在慢慢跨越自身的领域,即使目前来说并没有真正完全的横跨界限。
由于虚拟化性能、应用程序灵活性以及虚拟化引擎等诸多方面的问题,早期的存储交换虚拟化和磁盘阵列虚拟化两个阵营的提倡者广受业界的质疑。最初执行虚拟存储的厂商依赖那些基于现有组件的分布式解决方案或是基于端口的处理引擎来提供所需功能,应用设备虚拟化方案被认为是最易于配置的,但其往往有应用限制。因此一些厂商更倾向于存储交换虚拟化,认为智能SAN虚拟化处理组件是下一代虚拟存储的典范。
同样,HDS针对应用虚拟化方案和网络交换虚拟化方案也作出了类似的批评。HDS认为他们的通用存储平台(USP)是把虚拟化部署在存储网络边缘的存储控制器,而不是部署在主机或是网络核心的交换机或应用设备,他们认为从性能和安全因素上说这是最佳位置。
而应用设备虚拟化的坚定支持者NetApp则认为通过应用设备在存储网络上实现虚拟化是最好方案。NetApp公司发言人解释:在选择磁盘阵列方案后,存储网络能给客户提供最大的灵活性,不至于像TagmaStore通用存储平台那样把客户锁定在磁盘阵列的解决方案,既不需要那么复杂,也不需要基于主机的虚拟化解决方案中客户代码带来的成本。在存储网络之内,应用设备可以灵活放置。
一个好的虚拟解决方案不要求对磁盘或存储网络基础架构进行任何改变。因此,需要和您的供应商进行讨论来决定进行哪些改变才能够测试和运行它们的虚拟解决方案。但是需要警惕的是一些解决方案要求企业购买新一代SAN交换机或新一代存储控制器,而这样做的目的仅仅是为了实现存储虚拟。

冷板式液冷服务器
冷板式液冷服务器主要由换热冷板、热交换单元和循环管路、冷源等部件构成。通过将热量传递给循环管道中的冷却液体,再由液体本身的制冷特性将服务器产生的热量带走,提高冷板的冷却效率,大幅度降低数据中心的能耗。
其中冷板和冷源是散热能力的关键,冷板材质一般由高导热系数的材料构成,使得冷板表面接近等温,带走大量的集中热量。而冷源需要与与升温后的冷却液进行间接接触,通过带走冷却液的热量进行降温,使冷却液以低温状态进入芯片模块,进而进入散热循环。
浸没式液冷服务器
浸没式液冷服务器是通过浸没发热器件,使得器件与液体直接接触,进而进行热交换。因此冷却液为数据中心的换热介质,必须具有高绝缘、低黏度以及超强的兼容特性,是浸没式液冷技术的主要媒介。主板芯片等发热器件表面的散热性能在很大程度上影响介质沸腾的换热强度,若芯片表面光滑,则液体的散热效率更高。市场上常采用安装散热罩的方式,增大芯片的散热面积,从而提高散热效率,降低损耗率。
从以上分析不难看出二者区别,冷板式液冷技术在可维护性、空间利用率、兼容性方面具有较强的应用优势;但在成本方面,由于其单独定制冷板装置的原因,导致技术应用的成本相对较高。浸没式液冷技术虽然器件的可维护性和兼容性较差,但空间利用率与可循环方面具有较好的表现,符合碳排放标准和节能环保的理念。


欢迎分享,转载请注明来源:内存溢出

原文地址: https://www.outofmemory.cn/zz/13478611.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-08-15
下一篇 2023-08-15

发表评论

登录后才能评论

评论列表(0条)

保存