<
    • 什么是负载均衡
    • 负载均衡的原理
    • 服务器负载均衡
    • 出口链路负载均衡
    • 全局负载均衡
    • 容器负载均衡
    • IPv6改造场景负载均衡
    • 流量可视与安全服务编排(SSLO)
    >

    什么是负载均衡

    负载均衡(Load Balancing)是一种将网络流量、请求或工作负载分配到多个服务器或计算资源上的技术。其目的是提高系统的性能、可靠性和可扩展性。

    在一个高流量或高负载的网络环境中,单个服务器可能无法处理所有的请求或工作负载。负载均衡通过将流量分发到多个服务器上,使得每个服务器都能够平均分担负载,从而提高整个系统的处理能力。

     

    负载均衡可以通过多种方式实现,常见的有以下几种:

    • 基于网络层的负载均衡:通过在网络层(如路由器、交换机)上进行流量分发,将请求分发到不同的服务器上。常见的协议有基于IP的负载均衡(如Round Robin、Least Connections)和基于DNS的负载均衡(如DNS轮询、DNS解析返回多个IP地址)。
    • 基于应用层的负载均衡:通过在应用层(如负载均衡设备、反向代理服务器)上进行流量分发,根据请求的内容、协议或其他特征将请求分发到不同的服务器上。常见的协议有HTTP、HTTPS、SMTP等。

     

    负载均衡的优势: 

    • 提高系统性能:通过将流量分发到多个服务器上,可以提高系统的处理能力和响应速度,减少单个服务器的负载压力。 
    • 提高系统可靠性:当某个服务器发生故障或不可用时,负载均衡可以自动将流量转移到其他可用的服务器上,保证系统的可用性和稳定性。 
    • 实现可扩展性:通过添加更多的服务器,负载均衡可以实现系统的水平扩展,满足不断增长的流量和负载需求。

    负载均衡的原理

    负载均衡的原理可以分为两个方面:流量分发和健康检查。

     

    一、流量分发:负载均衡器接收到来自客户端的请求后,需要将请求分发到多个服务器上。常见的负载均衡算法有以下几种:

    1. 轮询(Round Robin):按照请求的先后顺序将用户请求循环地分配到每台服务器。
    2. 加权轮询(Weighted Round Robin):根据服务器的权重设置,将请求按照权重比例分发给不同的服务器。
    3. 最少连接(Least Connection):将请求分发给当前连接数最少的服务器。
    4. 哈希( Hash):基于URI、 HOST、SRC_IP、IP+PORT的哈希算法,将包含不同元素的用户访问尽可能地平均调度到服务器集群中的各台服务器上。
    5. 优先级(Priority)将服务器按优先级分组,优先调度优先级高的,只有优先级高的服务器发生故障,才调度优先级低的服务器。

     

    二、健康检查:负载均衡器需要定期检查后端服务器的健康状态,以确保只将请求分发给可用的服务器。常见的健康检查方式有以下几种:

    1. 心跳检测(Heartbeat):负载均衡器定期向后端服务器发送心跳请求,检测服务器是否正常响应。
    2. 响应超时检测:负载均衡器设置一个合理的响应超时时间,如果服务器在规定时间内没有响应,则认为服务器不可用。
    3. 负载检测:负载均衡器通过监控服务器的负载情况,如CPU利用率、内存使用率等,判断服务器的可用性。

     

    当负载均衡器接收到请求后,根据负载均衡算法选择一个可用的服务器,并将请求转发给该服务器。服务器处理完请求后,将响应返回给负载均衡器,再由负载均衡器将响应返回给客户端。

    通过流量分发和健康检查的组合,负载均衡器可以实现将请求均匀地分发到多个服务器上,并确保只将请求发送给可用的服务器,从而提高系统的性能、可靠性和可扩展性。

    服务器负载均衡

    服务器负载均衡是指将来自客户端的请求分发到多个Web服务器上,以提高系统的性能、可用性和可扩展性。以下是一些常见的Web服务器负载均衡策略:

     

    1. 基于DNS的负载均衡:通过DNS服务器将域名解析为多个IP地址,每个IP地址对应一个Web服务器。客户端通过域名访问时,DNS服务器会返回一个可用的IP地址,从而将请求分发到不同的Web服务器上。 
    2. 硬件负载均衡器:使用专门的硬件设备(如负载均衡器)来分发请求。负载均衡器通过监控服务器的负载情况,根据预设的负载均衡算法(如轮询、最少连接数等)将请求分发到不同的Web服务器上。 
    3. 软件负载均衡器:使用软件来实现负载均衡功能。常见的软件负载均衡器有虚拟化负载、Nginx等。软件负载均衡器通过监听客户端请求,根据预设的负载均衡算法将请求分发到不同的Web服务器上。 
    4. 会话保持(Session Persistence):为了保持用户会话的一致性,将同一个用户的请求始终分发到同一个Web服务器上。可以通过在负载均衡器上维护会话信息,或者使用Cookie等方式实现会话保持。 
    5. 动态负载均衡:根据服务器的实时负载情况动态地调整请求的分发策略。可以根据服务器的CPU利用率、内存使用情况等指标来进行动态负载均衡。

    出口链路负载均衡

    出口链路负载均衡是指将网络流量分发到多个出口链路上,以提高网络的带宽利用率和可用性。在企业或数据中心网络中,常常会使用多个出口链路连接到不同的网络服务提供商或运营商,通过出口链路负载均衡可以实现以下目标:

    • 带宽扩展:通过将流量分发到多个出口链路上,可以将网络流量均匀地分散到各个链路上,从而提高整体的带宽利用率。这对于需要处理大量网络流量的应用或服务来说尤为重要。
    • 故障容错:当某个出口链路发生故障或出现性能问题时,出口链路负载均衡可以自动将流量切换到其他正常的链路上,从而保证网络的可用性和连通性。这可以提高网络的稳定性和可靠性。
    • 优化网络性能:通过选择最佳的出口链路,可以根据不同的网络条件和目标服务的位置,选择最短的路径或最低的延迟,从而优化网络性能。这对于需要低延迟和高可靠性的应用或服务来说尤为重要。 

     

    实现出口链路负载均衡可以采用以下几种方式:

    • 静态路由:通过手动配置路由表,将流量分发到不同的出口链路上。这需要管理员手动管理路由表,根据网络流量的情况进行调整。 
    • 动态路由协议:使用动态路由协议(如BGP、OSPF等)来自动学习和分发路由信息。路由协议可以根据链路的状态和性能动态地调整路由,实现出口链路的负载均衡和故障容错。 
    • 负载均衡设备:使用专门的负载均衡设备来实现出口链路的负载均衡。可以根据预设的负载均衡算法和链路状态进行流量分发和链路切换。

    全局负载均衡

    大型企业、金融机构、政府单位等组织单位, 出于自身业务发展的需要和国家监管的要求, 纷纷新建多数据中心,以抵御不可抗 力(火灾、地震等)打击带来的巨大损失。 

    深信服应用交付 AD 全局负载均衡技术,在多个数据中心间,实现用户访问流量的智能管理,盘活数据中心巨额投资,实现用户就近访问。当单个数据中心无法提供服务时,能透明地将用户牵引到其他健康的数据中心,确保核心业务 7×24 小时连续运行。

     

    全局负载均衡功能特性: 

    • 细粒度流量控制:结合业务数据流走向,将数据中心拆分成多个逻辑层,逐层部署。精细化管理各层流量,实现业务的无缝切换。 
    • 跨数据中心会话保持:利用 DC Cookie 技术实现跨数据中心的会话保持,在客户端网络发生变化(如 Wi-Fi 切换到 4G)时保证业务访问的连续性。 
    • 多设备智能联动:同层应用负载东西向联动,彼此交换多数据中心的运行状况;全局负载与应用负载南北向联动,通过私有协议进行状态 同步,全局负载结合数据中心内部情况统一决策。

    容器负载均衡

    容器负载均衡是指在容器化环境中,将流量均匀地分发到多个容器实例上,以提高应用程序的可用性、可扩展性和性能。

     

    容器负载均衡功能特性: 

    • 高可用性:通过将流量分发到多个容器实例上,当某个容器实例发生故障或不可用时,负载均衡器可以自动将流量切换到其他正常的容器实例上,从而保证应用程序的可用性。 
    • 扩展性:当应用程序需要处理更多的请求时,可以通过增加容器实例的数量来扩展应用程序的处理能力。负载均衡器可以根据容器实例的负载情况,将新的请求分发到负载较低的容器实例上,从而实现应用程序的水平扩展。 
    • 负载均衡:通过负载均衡算法,将流量均匀地分发到多个容器实例上,以避免某个容器实例过载而导致性能下降。常用的负载均衡算法包括轮询、加权轮询、最少连接等。 

     

    实现容器负载均衡可以采用以下几种方式:

    • 服务网格:使用服务网格技术(如Kubernetes、Istio等)来实现容器负载均衡。服务网格可以通过集中式的负载均衡器或边缘代理,将流量分发到多个容器实例上,并提供负载均衡算法、健康检查、故障恢复等功能。 
    • 反向代理:使用反向代理服务器(如Nginx、HAProxy等)来实现容器负载均衡。反向代理服务器可以将流量分发到多个容器实例上,并根据预设的负载均衡算法进行流量分发和容器实例的健康检查。 
    • DNS负载均衡:通过DNS服务器来实现容器负载均衡。DNS服务器可以返回多个容器实例的IP地址,客户端根据DNS解析结果选择其中一个容器实例进行访问。DNS负载均衡可以通过设置不同的权重或轮询方式来实现负载均衡。 

     

    在实际应用中,需要根据容器平台、应用程序的特点和需求选择适合的容器负载均衡方案。同时,还需要考虑容器实例的健康检查、自动扩缩容、监控和日志等方面的问题,以确保容器负载均衡的有效运行。

    IPv6改造场景负载均衡

    IPv6(Internet Protocol Version 6),即互联网协议第6版,是全球公认的下一代互联网解决方案,能够提供更广泛的互联网连接,促进物联网、工业互联网、人工智能等新应用、新领域不断发展,推动万物互联的时代进程。政府、金融和教育等各个行业针对IPv6改造 都相继发文,明确在不同时间段完成相关网站和业务的IPv6改造。在国家政策与用户业务需求驱使下,推动IPv6的发展与普及迫在眉睫。 

     

    IPv6改造场景负载均衡功能特性: 

    • 降低改造复杂度:根据用户的实际需求,采用逐步递进的方式完成 IPv6 改造,不仅不会对现有业务造成影响,还可大幅降低整体改造的 难度。同时深信服作为专业的安全厂商之一,将提供全面的安全改造方案。IPv6 改造方案帮助用户解决 IPv6 和 IPv4 的兼容问题,又可便捷地实现向纯 IPv6 网络的平滑过渡与快速升级。 
    • “天窗”问题攻克:深信服应用交付 AD 方案通过特有的改写策略,将用户访问外链的请求再次调度到 AD 设备,保证即使外链没有完成 IPv6 改造也能被正常访问,同时解决页面动图和视频的延时性问题,做到用户端无感知,从而顺利解决“天窗”问题, 保障 IPv6、IPv4 互联互通。 
    • 满足合规:深信服应用交付 AD 在国内负载均衡市场连续 6 年国产品牌第一,应用交付 AD IPv6 改造方案通过中国信息通信研究院的 官方检测,确保产品功能与性能满足 IPv6 改造要求,同时在纯 IPv6 和双栈环境下的性能与纯 IPv4 环境下的性能相差无几, 这意味着深信服应用交付能够保障政府、金融和央企等国家要求 IPv6 改造的单位顺利通过验收。

    流量可视与安全服务编排(SSLO)

    在安全需求驱动下,为规避HTTP明文带来的安全风险,现代互联网业务正在逐渐步入全站 HTTPS 时代。 根据 Netmarketshare 的数据,2019 年 10 月加密 Web 流量的比例已经超过了九成。随着SSL加密流量快速增长也带来诸多问题,如业务流量可视化程度、网络安全设备的性能瓶颈,以及IT基础设施架构的复杂程度都随着SSL流量的增长而降低。

    在传统安全架构下,众多安全设备糖葫芦串部署模式下存在多个故障点,很难适应网络结构的变化。同时使得安全设备消耗了不必要的性能,带来IT资源浪费。

     

    流量可视与安全服务编排(SSLO)功能特性: 

    1. 安全SSL流量可视:消除安全盲点,实现 SSL 流量可视化,节省安全设备 SSL 加解密消耗。 
    2. 安全设备性能可扩:安全设备池化,消除闲置,支持平滑扩容。 
    3. 安全设备间可异构:SSLO 中各安全设备间松耦合,设备间可以实现品牌异构,支持灵活扩展,增加网络架构弹性;
    4. 流量智能编排可控:基于策略的流量智能编排快速排障,节省运维成本;安全测试设备可灰度上线; 
    5. 整体网络延时可降:流量只流经该过的安全设备,减少其他设备不必要的损耗,降低业务延迟; 
    6. 投资回报率可提升:安全设备池化后,每台设备都能干活,提升了设备使用效率,盘活了资产。