云计算分布式服务器负载均衡原理

作者: 澳门金莎娱乐网站  发布:2019-09-13

许多企业组织正在和IT人员谈论,关于向云环境转移和/或使用虚拟机技术,从而获得更好的可扩展性。能够根据需求访问更多的资源,让您的企业拥有向内部和外部客户提供卓越的最终用户体验的能力。应用程序可以运行得更快,并且可在处理网络流量高峰时减少中断服务。

在分布式服务器的世界里,负载均衡是任何系统可扩展性功能的核心方面。长期的负载均衡工作的秘诀是自动化。让我们一起来看看在负载平衡的基础。然后,我们可以看看自动化是如何使程序更快,更便宜,更有效的。

企业在转向云端是需要构建最安全的系统架构。根据云安全联盟(CSA)的报告《The Notorious Nine: Cloud Computing Top Threats in 2013》,针对企业云部署最常见的攻击就是分布式拒绝服务(DDoS)攻击。在最近的一篇博文中,亚马逊探讨了客户如何在他们的亚马逊Web服务(AWS)虚拟私有云(VPC)中使用安全群组和访问控制,从而减少攻击面,同时设计了一个云架构来保护企业免受DDoS攻击。反抗云中DDoS的概念能成真吗?本篇技巧将会解析核心概念和技术,基础架构和安全团队可以实践,从而减少当今云环境中企业所面临的DDoS攻击风险。

什么是负载均衡?它是如何工作的?

图片 1

负载平衡将网站流量分送到多个服务器,以帮助确保资源得到有效利用,并确保每次都没有服务器的工作负载过重。服务器网络之间分配需求,可以限制时间延迟和提高响应速度。有了负载平衡,如果一个或多个服务器由于故障或日常维护而宕机,应用程序将不一定会被彻底关闭。相反,余下的服务器会直接接过任务。你可以在本地布置多台服务器,或者你也可以选择云网络模型里面的分布式服务器。

减少公开暴露

在分布式计算云里面,服务器可以位于许多不同的地理区域的安全数据中心中。即使一个数据中心遭受了自然灾害,仍然会有大量分布在其他地方可用的服务器来处理工作量。利用拥有一个完整的基础设施即服务(IaaS)包的私有云,负载平衡能够为一个特定的企业客户保留的一组专用服务器。

绝对没有一种方法能够完全消除分布式拒绝服务攻击的威胁,理解这一点很重要。为了有效地阻击DDoS攻击并维护云服务的可用性,要运用一些核心的概念。首先,企业需要减少全部公开暴露环境。对于AWS环境,通常是在VPC中设置安全群组和私有网络。亚马逊有很好的终端概述——对于流量的方向指向具体的虚拟机以及与之相关的服务——或者网络安全群组。

在公共云中,您的IP流量与许多其他客户一起在广泛分布的网络服务器上负载平衡。从一个真正的可扩展性的角度来看,在公共云中负载均衡可能是最容易的,因为你可以从主要云服务提供商那里得到无限的服务器资源。当然,检查的任何潜在的云服务提供商的业绩记录也是很重要的,以确保他们的客户真正有体验到轻松的可扩展性需求的经验。

准备扩展和冗余

关注可扩展性并不意味着整个程序必须转移到云上。也有可以利用的混合选项。

弹性和可扩展要防患于未然,确保扩展和冗余在分布式拒绝攻击期间可以按需使用,尤其是在多个地理区域的情况下。任何运行在云中的虚拟机实例都需要保证网络资源可用。

例如,亚马逊提供了2个EC2(亚马逊弹性云端运算)版本的Zeus(流量管理器和简单的负载均衡器),允许企业和小型企业客户根据需求在云上均衡网络流量负载。这给客户提供了两种选择,正常流量的时候使用本地服务器,而流量高峰期则暂时扩展到云上。

亚马逊用具体实例规模提供了加强网络,允许更多的每秒封包数从这些系统发出或者收到,从而改善性能。亚马逊提供了其弹性负载均衡(ELB)服务,对所有运行中的实例扮演一个前端的角色,也能够基于你的负载均衡需求分配流量到系统中。

...

微软针对所有的Azure提供了域名系统(DNS)和网络负载均衡,Rackspace提供了控制流量流的专属云负载均衡。对于开启新服务和在云端扩展设置自动触发器是另外一种常见方式,可以提供资源弹性。在一篇减少DDoS攻击的白皮书中,亚马逊建议使用其Auto Scaling功能,在具体的实例度量上设置触发器,比如CPU利用率、网络流量和服务状态检查——从而自动化流量扩展和针对实例的负载均衡。

本文由金沙澳门官网发布于澳门金莎娱乐网站,转载请注明出处:云计算分布式服务器负载均衡原理

关键词: 金沙澳门官网

上一篇:虚拟专用服务器,安装和运行篇
下一篇:没有了