tag 标签: 集群、负载均衡

相关博文
  • 热度 12
    2018-9-7 09:59
    1194 次阅读|
    0 个评论
    Web集群与负载均衡服务实现 集群 (Cluster) :是一组独立的计算机系统构成一个松耦合的多处理器系统,它们之间通过网络实现进程间的通信。应用程序可以通过网络共享内存进行消息传送,实现分布式计算机。 负载均衡 (Load balance cluster,LBC ): 它是利用一个集群中的多台单机,完成许多并行的小的工作。一般情况下,如果一个应用使用的人多了,那么用户请求的相应时间就会增大,机器的性能也会受到影响,如果使用负载均衡集群,那么集群中任意一台机器都能相应用户的请求,这样集群就会在用户发出服务请求之后,选择当时负载最小,能够提供最好的服务的这台机器来接受请求并相应,这样就可用用集群来增加系统的可用性和稳定性。 分布式系统(distributed system):是建立在网络之上的 软件 系统。正是因为 软件 的特性,所以分布式系统具有高度的 内聚性 和透明性。因此,网络和分布式系统之间的区别更多的在于高层 软件 (特别是 操作系统 ),而不是硬件。 在一个分布式系统中,一组独立的计算机展现给用户的是一个统一的整体,就好像是一个系统似的。系统拥有多种通用的物理和逻辑资源,可以动态的分配任务,分散的物理和逻辑资源通过 计算机网络 实现信息交换。系统中存在一个以全局的方式管理计算机资源的 分布式操作系统 。通常,对用户来说,分布式系统只有一个模型或范型。在 操作系统 之上有一层 软件中间件 (middleware)负责实现这个模型。一个著名的分布式系统的例子是 万维网 (World Wide Web),在万维网中,所有的一切看起来就好像是一个文档( Web 页面)一样。 服务器集群的方向: 1 、向内扩展 两个Tomcat的实例运行在一台物理器上,充分利用原有内存,CPU未得到扩展。 缺点 : 在一定的范围之内它的性能是上升的趋势 , 但是超出范围之后就是下降的趋势。因为随着它的 cpu 的个数增加我们需要给我们的 cpu 仲裁,而且随着 cpu 个数的增加资源竞争性越大。 2 、向外扩展 一台服务器应付不过来, 我们就再增加一台服务器。两台Tomcat,分别运行在2台物理机上,好处是最大的即CPU扩展,内存也扩展了,处理能力也扩展了。 优点 : 增减服务器很方便,而且没有向上扩展随着增加性能下降。 服务器的类型 1 、 LB:LoadBalancing: 负载均衡集群 负载均衡集群中有一个分发器或者叫调度器,我们将其称之为 Director ,它处在多台服务器的上面,分发器根据内部锁定义的规则或调度方式从下面的服务器群中选择一个以此来响应客户端发送的请求。 2 、 HA:HighAvailability 高可用集群 高可用集群是服务的可用性比较高,当我们某台服务器死机后不会造成我们的服务不可用。其工作模式则是将一个具有故障的服务转交给一个正常工作的服务器,从而达到服务不会中断。一般来说我们集群中工作在前端(分发器)的服务器都会对我们的后端服务器做一个健康检查,如果发现我们服务器当机就不会对其在做转发。 衡量标准:可用性 = 在线时间 /( 在线时间 + 故障处理时间 ) 99% 、 99.9% 、 99.99% 、 99.999% 3 、 HP:HightPerformance 高性能 高性能的集群是当某一个任务量非常大的时候,我们做一个集群共同来完成这一个任务。这种处理方式我们称为并行处理集群,并行处理集群是将大任务划分为小任务,分别进行处理的机制。一般这样的集群用来科学研究与大数据运算等方面的工作。现在比较火的 Hadoop 就是使用的并行处理集群。 负载均衡方案: 1:HTTP 重定向负载均衡 这种负载均衡方式仅适合 WEB 服务器。用户发出请求时,负载均衡服务器会根据 HTTP 请求,重新计算出实际的 WEB 服务器地址,通过 302 重定向相应发送给用户浏览器。用户浏览器再根据 302 响应信息,对实际的 WEB 服务器发出请求。 HTTP 重定向方案有点是比较简单,缺点是性能比较差,需要 2 次请求才能返回实际结果 , 还有就是仅适合 HTTP 服务器使用。 2: DNS 域名解析负载均衡 在 DNS 中存储了一个域名的多个主机地址,每次域名解析请求,都可以根据负载均衡算法返回一个不同的 IP 地址。这样多个 WEB 服务器就构成了一个集群,并由 DNS 服务器提供了负载均衡服务。 DNS 域名解析负载均衡的优点是由 DNS 来完成负载均衡工作,服务本身不用维护负载均衡服务器的工作。缺点也是,由于负载均衡服务器不是自己维护,没法做精细控制,而且 DNS 在客户端往往带有缓存,服务器的变更很难及时反映到客户端上。 3 : 反向代理负载均衡 反向代理服务器位于实际的服务器之前,他能够缓存服务器响应,加速访问,同时也启到了负载均衡服务器的效果。反向代理服务器解析客户端请求,根据负载均衡算法转发到不同的后台服务器上。用户和后台服务器之间不再有直接的链接。请求,响应都由反向代理服务器进行转发。 优点是和负载均衡服务集成在一起,部署简单。缺点是所有的请求回应都需要经过反向代理服务器。其本身可能会成为性能的瓶颈。 著名的 Nginx 服务器就可以部署为反向代理服务器,实现 WEB 应用的负载均衡。上面的三种都是工作在 OSI 网络模型中的应用层,我们可以统称为应用层负载均衡 ( 七层负载均衡 ) 。下面介绍的几种工作在 OSI 网络模型中的 4 层以及 4 层以下 ( 四层负载均衡 ) ,解决方案也具有更大的通用性。 4 : IP 负载均衡 用户请求包到达负载均衡服务器 114.100.20.200 后,负载均衡服务器在操作系统内核层获取网络数据包,根据负载均衡算法获取真实后台服务器地址 192.168.1.1, 然后将数据包的目标地址改为 192.168.1.1, 转发给内部服务器。整个过程都在内核层进行处理。收到 192.168.1.1 的响应包之后,会更改响应包的 SRC IP, 转发给客户端用户。采用 IP 层负载均衡算法,全部处理过程都在内核层 (Ring 0) 进行。和七层负载均衡相比,具有更好的性能。 但是由于所有的响应包都要经过负载均衡服务器,负载均衡服务器的网卡带宽,很容易成为系统的瓶颈 ,如果能够让响应包不经过负载均衡服务器,就可以极大的提升整个负载均衡服务器的服务能力。我们下面介绍的数据链路层负载均衡,就具有这个能力。 5 : 数据链路层负载均衡 数据链路层负载均衡,顾名思义,就是工作在 TCP/IP 协议最底层的数据链路层,进行负载均衡。我们常用的以太网中,在这一层主要 采用数据帧进行通信,每个网卡都具有唯一的 MAC 地址,数据帧用 MAC 地址来标识数据的来源与目的地 。数据链路层负载均衡通过修改数据包的 MAC 地址,实现负载均衡。 这种数据传输方式又称为三角传输, 负载均衡数据分发过程中不修改 IP 地址,只修改目的 MAC 地址 ,通过配置真实物理服务器集群所有机器虚拟 IP 和负载均衡服务器 IP 一致,从而达到不修改数据包的源地址和目的地址就可以进行数据分发的目的,由于实际处理请求的真实物理服务器 IP 和数据请求目的 IP 一致,不需要通过负载均衡服务器进行地址交换,可将响应数据包直接返回给用户,避免负载均衡服务器网卡带宽成为瓶颈。这种负载均衡方式又称之为直接路由方式( DR ) .