您当前的位置:首页 > 电脑百科 > 程序开发 > 架构

微服务:Eureka,Ribbon,Hystrix

时间:2021-03-03 10:42:46  来源:  作者:

网关组件 Zuul 性能一般,未来将退出 Spring Cloud 生态圈,所以直接使用 GateWay,把 GateWay 划分到第一代 Spring Cloud 核心组件中。

各组件整体结构如下:

Gateway:所有服务的入口;日志、黑白名单、鉴权。

Ribbon:负载均衡。
​
Hystrix:熔断器,服务熔断,服务降级。
​
Feign:远程调用。
​
Eureka:服务注册与发现;微服务名称、IP、端口号。
​
Config:搭建配置中心微服务;实现对配置文件的统一管理,配置自动刷新 - bus。
​
Actor
---> Gateway 网关
--转发--> 
{
  [搜索微服务,搜索微服务],
  [商品微服务,商品微服务],
  [支付微服务,支付微服务],
  [秒杀微服务,秒杀微服务],
  RestTemplate + Ribbon + Hystrix 或 Feign
}
---->
{
  服务注册中心 Eureka,
  配置中心 Config
}

从形式上来说,Feign 一个顶三,Feign = RestTemplate + Ribbon + Hystrix。

 

Eureka 服务注册中心

常用的服务注册中心:Eureka、Nacos、Zookeeper、Consul。

关于服务注册中心

注意:服务注册中心本质上是为了解耦服务提供者和服务消费者。

服务消费者 -> 服务注册中心 -> 服务提供者。

对于任何一个微服务,原则上都应存在或者支持多个提供者(比如商品微服务部署多个实例),这是由微服务的分布式属性决定的。

更进一步,为了支持弹性扩、缩容特性,一个微服务的提供者的数量和分布往往是动态变化的,也是无法预先确定的。因此,原本在单体应用阶段常用的静态 LoadBalance 机制就不再适用了,需要引入额外的组件来管理微服务提供者的注册与发现,而这个组件就是服务注册中心。

注册中心实现原理

1. 启动:
容器 --> 服务注册中心
容器 --> 服务提供者
容器 --> 服务消费者
​
2. 注册:
服务消费者 --> 服务注册中心
服务提供者 --> 服务注册中心
​
3. 获取服务信息:
服务消费者 <--获取服务信息--> 服务注册中心
​
4. Invoke:
服务消费者 --负载均衡-熔断机制--> 服务提供者

分布式微服务架构中,服务注册中心用于存储服务提供者地址信息、服务发布相关的属性信息,消费者通过主动查询和被动通知的方式获取服务提供者的地址信息,而不再需要通过硬编码方式得到提供者的地址信息。消费者只需要知道当前系统发布了那些服务,而不需要知道服务具体存在于什么位置,这就是透明化路由。

1)服务提供者启动。

2)服务提供者将相关服务信息主动注册到注册中心。

3)服务消费者获取服务注册信息:Pull 模式 - 服务消费者可以主动拉取可用的服务提供者清单;Push 模式 - 服务消费者订阅服务,当服务提供者有变化时,注册中心也会主动推送更新后的服务清单给消费者。

4)服务消费者直接调用服务提供者。

另外,注册中心也需要完成服务提供者的健康监控,当发现服务提供者失效时需要及时剔除。

主流服务中心对比

Zookeeper:

Dubbo + Zookeeper
​
zookeeper = 存储 + 监听通知
​
Zookeeper 是一个分布式服务框架,是 Apache Hadoop 的一个子项目,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步服务、集群管理、分布式应用配置项的管理等。
​
Zookeeper 用来做服务注册中心,主要是因为它具有节点变更通知功能,只要客户端监听相关服务节点,服务节点的所有变更,都能及时的通知到监听客户端,这样作为调用方只要使用 Zookeeper 的客户端就能实现服务节点的订阅和变更通知功能了,非常方便。另外,Zookeeper 可用性也可以,因为只要半数以上的选举节点存活,整个集群就是可用的,最少节点数为 3。

Eureka:

Eureka 由 Netflix 开源,并被 Pivatal 集成到 Spring Cloud 体系中,它是基于 RestfulAPI 风格开发的服务注册与发现组件。

Consul:

Consul 是由 HashiCorp 基于 Go 语言开发的支持多数据中心分布式高可用的服务发布和注册服务软件, 采用 Raft 算法保证服务的一致性,且支持健康检查。

Nacos:

Nacos 是一个更易于构建云原生应用的动态服务发现、配置管理和服务管理平台。简单来说 Nacos 就是注册中心 + 配置中心的组合,帮助我们解决微服务开发必会涉及到的服务注册与发现,服务配置,服务管理等问题。Nacos 是 Spring Cloud Alibaba 核心组件之一,负责服务注册与发现,还有配置。

CAP 定理:

CAP 定理又称 CAP 原则,指的是在一个分布式系统中,Consistency 一致性、 Availability 可用性、Partition tolerance 分区容错性,最多只能同时三个特性中的两个,三者不可兼得。
​
P:分区容错性 - 分布式系统在遇到某节点或网络分区故障的时候,仍然能够对外提供满足一致性或可用性的服务(一定的要满足的)。
​
C:数据一致性 - all nodes see the same data at the same time.
​
A:高可用 - Reads and writes always succeed.
​
CAP 不可能同时满足三个,要么是 AP,要么是 CP。

对比:

  • Eureka - JAVA - AP - HTTP
  • Consul - Go - CP - HTTP / DNS
  • Zookeeper - Java - CP - 客户端
  • Nacos - Java - 支持 AP / CP 切换 - HTTP

服务注册中心组件 Eureka

服务注册中心的一般原理、对比了主流的服务注册中心方案,目光聚焦 Eureka。

Eureka 基础架构:

Eureka Server 需要手动搭建一个工程,并引入相关依赖,进行对应的配置文件设置。
​
Renew 心跳 / 心跳检测:服务注册默认 30s 续约,默认 90s 没有收到续约就会将 Client 实例从服务列表中剔除。
​
ApplicationService 服务提供者 
----> Eureka Client 
--注册服务--> Eureka Server 注册中心
​
Eureka Server 注册中心 
--服务列表-缓存--> Eureka Client 
----> ApplicationClient 客户端消费者
​
ApplicationClient 客户端消费者 --调用服务--> ApplicationService 服务提供者

Eureka 交互流程及原理:

不同的 Eureka Server 会互相同步复制(Replicate)服务实例列表;
每个 Eureka Server 是一个集群;
Eureka Server 搭建集群来保持高可用服务注册中心;
每个 Eureka Server 可能处于不同地域不同的机房。
​
Eureka 服务注册中心:[Eureka Server 1, Eureka Server 2, Eureka Server 3]
​
Appllication Service 服务提供者 - 含有 Eureka Client
Application Client 服务消费者 - 含有 Eureka Client
​
服务提供者可以进行 Register, Renew, Cancel, Get Registry 于服务注册中心。
服务消费者可以进行 Get Registry 于服务注册中心。
​
服务消费者 Make Remote Call 于服务提供者。

Eureka 包含两个组件 - Eureka Server 和 Eureka Client:

  • Eureka Client 是一个 Java 客户端,用于简化与 Eureka Server 的交互;Eureka Server 提供服务发现的能力。
  • 各个微服务启动时,会通过 Eureka Client 向 Eureka Server 进行注册自己的信息(如网络信息),Eureka Server 会存储该服务的信息。
  • Application Service 作为服务提供者向 Eureka Server 中注册服务,Eureka Server 接受到注册事件会在集群和分区中进行数据同步,Application Client 作为消费端(服务消费者)可以从 Eureka Server 中获取到服务注册信息,进行服务调用。
  • 微服务启动后,会周期性地向 Eureka Server 发送心跳以续约自己的信息; Eureka Server 默认心跳续约周期为 30s,默认 90s 后会将还没有续约的 Client 给剔除。
  • 如果 Eureka Server 在一定时间内没有接收到某个微服务节点的心跳,将会注销该微服务节点(默认 90 秒)。
  • 每个 Eureka Server 同时也是 Eureka Client,多个 Eureka Server 之间通过复制的方式完成服务注册列表的同步。
  • Eureka Client 会缓存 Eureka Server 中的信息。即使所有的 Eureka Server 节点都宕掉,服务消费者依然可以使用缓存中的信息找到服务提供者。

Eureka 通过心跳检测、健康检查和客户端缓存等机制,提高系统的灵活性、可伸缩性和高可用性。

搭建单例 Eureka Server 服务注册中心

实现过程:

  1. 单实例 Eureka Server -> 访问管理界面。
  2. 服务提供者(商品微服务注册到集群)。
  3. 服务消费者(页面静态化微服务注册到 Eureka / 从 Eureka Server 获取服务信息)。
  4. 完成调用 。

1)搭建 Eureka Server 服务 lagou-cloud-eureka

lagou-parent 中增加 Spring Cloud 版本号依赖管理;Spring Cloud 是一个综合的项目,下面有很多子项目,比如 eureka 子项目;Greemwich 对应的 Spring Boot 是 2.0.x 版本。

<dependencyManagement>
    <dependencies>
        <!-- SCN -->
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-dependencies</artifactId>
            <version>Greenwich.RELEASE</version>
            <type>pom</type>
            <scope>import</scope>
        </dependency>
    </dependencies>
</dependencyManagement>

2)lagou-cloud-eureka 工程 pom.xml 中引入依赖

<dependencies>
    <!-- Eureka server 依赖 -->
    <dependency>
        <groupId>org.springframework.cloud</groupId>
        <artifactId>spring-cloud-starter-netflix-eureka-server</artifactId>
    </dependency>
</dependencies>

注意:在父工程的 pom 文件中手动引入 jaxb 的 jar,因为 Jdk 9 之后默认没有加载该模块,但是 Eureka Server 使用到,所以需要手动导入,否则 Eureka Server 服务无法启动。

父工程 lagou-parent 的 pom 中增加依赖:

<!-- 引入 Jaxb,开始 -->
<dependency>
    <groupId>com.sun.xml.bind</groupId>
    <artifactId>jaxb-core</artifactId>
    <version>2.2.11</version>
</dependency>
<dependency>
    <groupId>javax.xml.bind</groupId>
    <artifactId>jaxb-api</artifactId>
</dependency>
<dependency>
    <groupId>com.sun.xml.bind</groupId>
    <artifactId>jaxb-impl</artifactId>
    <version>2.2.11</version>
</dependency>
<dependency>
    <groupId>org.glassfish.jaxb</groupId>
    <artifactId>jaxb-runtime</artifactId>
    <version>2.2.10-b140310.1920</version>
</dependency>
<dependency>
    <groupId>javax.activation</groupId>
    <artifactId>activation</artifactId>
    <version>1.1.1</version>
</dependency>
<!-- 引入 Jaxb,结束 -->

3)在 application.yml 文件中配置 Eureka server 服务端口,服务名等信息:

server:
  port: 9200
spring:
  application:
    name: lagou-cloud-eureka
eureka:
  # Eureka server 本身也是 eureka 的一个客户端,因为在集群下需要与其他 eureka server 进行数据的同步
  client:
    # 定义 eureka server url, 如果是集群情况下 defaultZone 设置为集群下的别的 Eureka Server 的地址,多个地址使用逗号隔开
    service-url:
      defaultZone: http://${eureka.instance.hostname}:${server.port}/eureka
    # 自己就是服务不需要注册自己
    register-with-eureka: false
    # 自己就是服务不需要从 Eureka Server 获取服务信息, 默认为 true
    fetch-registry: false
  instance:
    # 当前 eureka 实例的主机名
    hostname: localhost
    # 使用 ip 注册,否则会使用主机名注册了(此处考虑到对老版本的兼容,新版本经过实验都是 ip)
    prefer-ip-address: true
    # 自定义实例显示格式,加上版本号,便于多版本管理,注意是 ip-address,早期版本是 ipAddress
    instance-id: ${spring.cloud.client.ip-address}:${spring.application.name}:${server.port}:@project.version@

4)编写启动类,声明当前服务为 Eureka 注册中心

package com.renda.eureka;
​
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.cloud.netflix.eureka.server.EnableEurekaServer;
​
/**
 * @author Renda Zhang
 * @since 2020-11-01 16:36
 */
@SpringBootApplication
@EnableEurekaServer // 表示当前项目为 Eureka Server
public class EurekaApplication {
​
    public static void main(String[] args) {
        SpringApplication.run(EurekaApplication.class, args);
    }
​
}

5)访问 http://localhost:9200/,如果出现 Eureka 注册中心后台页面,则表明 Eureka Server 发布成功。

6)商品微服务和页面静态化微服务注册到 Eureka。

两个微服务的 POM 文件中都添加 Eureka Client 依赖:

<!-- Eureka client -->
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-netflix-eureka-client</artifactId>
</dependency>

两个微服务的 application.yml 都配置 Eureka 服务端信息:

eureka:
  client:
    service-url:
      defaultZone: http://localhost:9200/eureka/
  instance:
    # 使用 ip 注册,否则会使用主机名注册了(此处考虑到对老版本的兼容,新版本经过实验都是 ip)
    prefer-ip-address: true
    # 自定义实例显示格式,加上版本号,便于多版本管理,注意是 ip-address,早期版本是 ipAddress
    instance-id: ${spring.cloud.client.ip-address}:${spring.application.name}:${server.port}:@project.version@

修改两个微服务的启动类,加上注解:

// 将当前项目作为 Eureka Client 注册到 Eureka Server, 只能在 Eureka 环境中使用
@EnableEurekaClient

或者使用可以应用在所有服务注册中心环境的注解:

// 将当前项目表示为注册中心的客户端,向注册中心进行注册,可以在所有的服务注册中心环境下使用
@EnableDiscoveryClient

7)刷新 Eureka 注册中心后台页面,发现新增了两个微服务信息。

搭建 Eureka Server 高可用集群

在互联网应用中,服务实例很少有单个的。

如果 EurekaServer 只有一个实例,该实例挂掉,正好微服务消费者本地缓存列表中的服务实例也不可用,那么这个时候整个系统都受影响。

在生产环境中,会配置 Eureka Server 集群实现高可用。

Eureka Server 集群之中的节点通过点对点(P2P)通信的方式共享服务注册表。

开启两台 Eureka Server 以搭建集群。

修改个人电脑中 host 地址:

127.0.0.1 LagouCloudEurekaServerA
127.0.0.1 LagouCloudEurekaServerB

将 lagou-cloud-eureka 复制一份为 lagou-cloud-eureka2

lagou-cloud-eureka 的 application.yml:

server:
  port: 9200
spring:
  application:
    name: lagou-cloud-eureka
eureka:
  # Eureka server 本身也是 eureka 的一个客户端,因为在集群下需要与其他 eureka server 进行数据的同步
  client:
    # 定义 eureka server url, 如果是集群情况下 defaultZone 设置为集群下的别的 Eureka Server 的地址,多个地址使用逗号隔开
    service-url:
      defaultZone: http://LagouCloudEurekaServerB:9201/eureka
    # 表示是否向 Eureka 中心注册自己的信息,因为自己就是 Eureka Server 所以不进行注册, 默认为 true
    register-with-eureka: true
    # 是否查询 / 拉取 Eureka Server 服务注册列表,默认为 true
    fetch-registry: true
  instance:
    # 使用 ip 注册,否则会使用主机名注册了(此处考虑到对老版本的兼容,新版本经过实验都是 ip)
    prefer-ip-address: true
    # 自定义实例显示格式,加上版本号,便于多版本管理,注意是 ip-address,早期版本是 ipAddress
    instance-id: ${spring.cloud.client.ip-address}:${spring.application.name}:${server.port}:@project.version@

lagou-cloud-eureka2 的 application.yml:

server:
  port: 9201
spring:
  application:
    name: lagou-cloud-eureka
eureka:
  # Eureka server 本身也是 eureka 的一个客户端,因为在集群下需要与其他 eureka server 进行数据的同步
  client:
    # 定义 eureka server url, 如果是集群情况下 defaultZone 设置为集群下的别的 Eureka Server 的地址,多个地址使用逗号隔开
    service-url:
      defaultZone: http://LagouCloudEurekaServerA:9200/eureka
    # 表示是否向 Eureka 中心注册自己的信息,因为自己就是 Eureka Server 所以不进行注册, 默认为 true
    register-with-eureka: true
    # 是否查询 / 拉取 Eureka Server 服务注册列表,默认为 true
    fetch-registry: true
  instance:
    # 使用 ip 注册,否则会使用主机名注册了(此处考虑到对老版本的兼容,新版本经过实验都是 ip)
    prefer-ip-address: true
    # 自定义实例显示格式,加上版本号,便于多版本管理,注意是 ip-address,早期版本是 ipAddress
    instance-id: ${spring.cloud.client.ip-address}:${spring.application.name}:${server.port}:@project.version@

商品微服务的 application.xml:

server:
  # 微服务的集群环境中,通常会为每一个微服务叠加。
  port: 9000
spring:
  application:
    name: lagou-service-product
  datasource:
    driver-class-name: com.MySQL.cj.jdbc.Driver
    url: jdbc:mysql://localhost:3306/renda01?useUnicode=true&characterEncoding=utf8&serverTimezone=UTC
    username: root
    password: password
eureka:
  client:
    service-url:
      # 把 eureka 集群中的所有 url 都填写了进来,也可以只写一台,因为各个 eureka server 可以同步注册表
      defaultZone: http://LagouCloudEurekaServerA:9200/eureka, http://LagouCloudEurekaServerB:9201/eureka
  instance:
    # 使用 ip 注册,否则会使用主机名注册了(此处考虑到对老版本的兼容,新版本经过实验都是 ip)
    prefer-ip-address: true
    # 自定义实例显示格式,加上版本号,便于多版本管理,注意是 ip-address,早期版本是 ipAddress
    instance-id: ${spring.cloud.client.ip-address}:${spring.application.name}:${server.port}:@project.version@

页面静态化微服务 application.xml:

server:
  # 后期该微服务多实例,端口从 9100 递增(10 个以内)
  port: 9100
Spring:
  application:
    name: lagou-service-page
  datasource:
    driver-class-name: com.mysql.cj.jdbc.Driver
    url: jdbc:mysql://localhost:3306/renda01?useUnicode=true&characterEncoding=utf8&serverTimezone=UTC
    username: root
    password: password
eureka:
  client:
    service-url:
      # 把 eureka 集群中的所有 url 都填写了进来,也可以只写一台,因为各个 eureka server 可以同步注册表
      defaultZone: http://LagouCloudEurekaServerA:9200/eureka, http://LagouCloudEurekaServerB:9201/eureka
  instance:
    # 使用 ip 注册,否则会使用主机名注册了(此处考虑到对老版本的兼容,新版本经过实验都是 ip)
    prefer-ip-address: true
    # 自定义实例显示格式,加上版本号,便于多版本管理,注意是 ip-address,早期版本是 ipAddress
    instance-id: ${spring.cloud.client.ip-address}:${spring.application.name}:${server.port}:@project.version@

服务消费者调用服务提供者

改造页面静态化微服务:之前是直接通过 RestTemplate 写死 URL 进行调用,现在通过 Eureka 方式进行调用。

@RestController
@RequestMapping("/page")
public class PageController {

    @Autowired
    RestTemplate restTemplate;

    @Autowired
    DiscoveryClient discoveryClient;

    @GetMapping("/getProduct/{id}")
    public Products getProduct(@PathVariable Integer id) {
        // 1.获得 Eureka 中注册的 lagou-service-product 实例集合
        List<ServiceInstance> instances = discoveryClient.getInstances("lagou-service-product");
        // 2.获得实例集合中的第一个
        ServiceInstance instance = instances.get(0);
        // 3.根据实例信息拼接 IP 地址
        String host = instance.getHost();
        int port = instance.getPort();
        String url = "http://" + host + ":" + port + "/product/query/" + id;
        // 调用并返回
        return restTemplate.getForObject(url, Products.class);
    }

}

启动注册中心集群和微服务并使用 Postman 进行测试:

GET http://localhost:9100/page/getProduct/1

Eureka 细节详解

Eureka 元数据详解

Eureka 的元数据有两种:标准元数据和自定义元数据。

标准元数据:主机名、IP 地址、端口号等信息,这些信息都会被发布在服务注册表中,用于服务之间的调用。

自定义元数据:可以使用 eureka.instance.metadata-map 配置,符合 KEY / VALUE 的存储格式;这些元数据可以在远程客户端中访问。

eureka:
  instance:
    # 使用 ip 注册,否则会使用主机名注册了(此处考虑到对老版本的兼容,新版本经过实验都是 ip)
    prefer-ip-address: true
    # 自定义实例显示格式,加上版本号,便于多版本管理,注意是 ip-address,早期版本是 ipAddress
    instance-id: ${spring.cloud.client.ip-address}:${spring.application.name}:${server.port}:@project.version@
    # 自定义元数据,会和标准元数据一起注册到服务注册中心
    metadata-map:
      ip: 192.168.186.128
      port: 10000
      user: RendaZhang
      pwd: 123456

可以在程序中可以使用 DiscoveryClient 获取指定微服务的所有元数据信息:

@RestController
@RequestMapping("/page")
public class PageController {
​
    @Autowired
    RestTemplate restTemplate;
​
    @Autowired
    DiscoveryClient discoveryClient;
​
    @GetMapping("/getProduct/{id}")
    public Products getProduct(@PathVariable Integer id) {
        // 1.获得 Eureka 中注册的 lagou-service-product 实例集合
        List<ServiceInstance> instances = discoveryClient.getInstances("lagou-service-product");
        // 2.获得实例集合中的第一个
        ServiceInstance instance = instances.get(0);
        // 3.根据实例信息拼接 IP 地址
        String host = instance.getHost();
        int port = instance.getPort();
        // 获取打印自定义元数据
        Map<String, String> metadata = instance.getMetadata();
        Set<Map.Entry<String, String>> entries = metadata.entrySet();
        for (Map.Entry<String, String> entry : entries) {
            System.out.println(entry.getKey() + " : " + entry.getValue());
        }
        String url = "http://" + host + ":" + port + "/product/query/" + id;
        // 调用并返回
        return restTemplate.getForObject(url, Products.class);
    }
​
}

Eureka 客户端详解

服务提供者(也是 Eureka 客户端)要向 EurekaServer 注册服务,并完成服务续约等工作。

服务注册详解(服务提供者):

1)当导入了 eureka-client 依赖坐标,配置 Eureka 服务注册中心地址;

2)服务在启动时会向注册中心发起注册请求,携带服务元数据信息;

3)Eureka 注册中心会把服务的信息保存在 Map 中。

服务续约详解(服务提供者):

服务每隔 30 秒会向注册中心续约 (心跳) 一次(也称为报活),如果没有续约,租约在 90 秒后到期,然后服务会被失效。每隔 30 秒的续约操作称之为心跳检测。

  • Eureka Client - 30s 续约一次,在 Eureka Server 更新自己的状态(Client 端进行配置)。
  • Eureka Server - 90s 还没有进行续约,将该微服务实例从服务注册表(Map)剔除(Client端进行配置)。
  • Eureka Client - 30s 拉取服务最新的注册表并缓存到本地(Client 端进行配置)。
  • 往往不需要调整这两个配置。
# 向 Eureka 服务中心集群注册服务
eureka:
  instance:
    # 租约续约间隔时间,默认 30 秒
    lease-renewal-interval-in-seconds: 30
    # 租约到期,服务时效时间,默认值 90 秒, 服务超过 90 秒没有发生心跳,EurekaServer 会将服务从列表移除
    lease-expiration-duration-in-seconds: 90

获取服务列表(服务注册表)详解(服务消费者):

每隔 30 秒服务会从注册中心中拉取一份服务列表,这个时间可以通过配置修改;往往不需要调整。

# 向 Eureka 服务中心集群注册服务
eureka:
  client:
    service-url:
    # 每隔多久拉取一次服务列表
    registry-fetch-interval-seconds: 30

1)服务消费者启动时,从 Eureka Server 服务列表获取只读备份,缓存到本地。

2)每隔 30 秒,会重新获取并更新数据。

3)每隔 30 秒的时间可以通过配置 eureka.client.registry-fetch-interval-seconds 修改。

Eureka 服务端详解

服务下线:

1)当服务正常关闭操作时,会发送服务下线的 REST 请求给 Eureka Server。

2)服务中心接受到请求后,将该服务置为下线状态

失效剔除:

Eureka Server会定时(间隔值是 eureka.server.eviction-interval-timer-in-ms,默认 60s)进行检查,如果发现实例在在一定时间(此值由客户端设置的 eureka.instance.lease-expiration-duration-in-seconds 定义,默认值为 90s)内没有收到心跳,则会注销此实例。

自我保护机制:

自我保护模式正是一种针对网络异常波动的安全保护措施,使用自我保护模式能使 Eureka 集群更加的健壮、稳定的运行。

自我保护机制的工作机制是:如果在 15 分钟内超过 85% 的客户端节点都没有正常的心跳,那么 Eureka 就认为客户端与注册中心出现了网络故障,Eureka Server 自动进入自我保护机制,此时会出现以下几种情况:

  1. Eureka Server 不再从注册列表中移除因为长时间没收到心跳而应该过期的服务。
  2. Eureka Server 仍然能够接受新服务的注册和查询请求,但是不会被同步到其它节点上,保证当前节点依然可用。
  3. 当网络稳定时,当前 Eureka Server 新的注册信息会被同步到其它节点中。

默认情况下,如果 Eureka Server 在一定时间内(默认 90 秒)没有接收到某个微服务实例的心跳,Eureka Server 将会移除该实例。但是当网络分区故障发生时,微服务与 Eureka Server 之间无法正常通信,而微服务本身是正常运行的,此时不应该移除这个微服务,所以引入了自我保护机制。

  • 因此 Eureka Server 可以很好的应对因网络故障导致部分节点失联的情况,而不会像 Zookeeper 那样如果有一半不可用的情况会导致整个集群不可用而变成瘫痪。
  • 经验:建议生产环境打开自我保护机制

在单机测试的时候很容易满足心跳失败比例在 15 分钟之内低于 85%,这个时候就会触发 Eureka 的保护机制,一旦开启了保护机制(默认开启),则服务注册中心维护的服务实例就不是那么准确了,此时通过修改 Eureka Server 的配置文件来关闭保护机制,这样可以确保注册中心中不可用的实例被及时的剔除(不推荐)。

eureka:
  server:
    # 关闭自我保护模式(默认为 true)
    enable-self-preservation: false

 

Ribbon 负载均衡

关于负载均衡

负载均衡一般分为服务器端负载均衡和客户端负载均衡。

所谓服务器端负载均衡,比如 Nginx、F5(硬件负载) 这些,请求到达服务器之后由这些负载均衡器根据一定的算法将请求路由到目标服务器处理。

所谓客户端负载均衡,比如 Ribbon,服务消费者客户端会有一个服务器地址列表,调用方在请求前通过一定的负载均衡算法选择一个服务器进行访问,负载均衡算法的执行是在请求客户端进行。

Ribbon 是 Netflix 发布的负载均衡器。Eureka 一般配合 Ribbon 进行使用,Ribbon 利用从 Eureka 中读取到服务信息,在调用服务提供者提供的服务时,会根据一定的算法进行负载。

Ribbon 高级应用

需求:

复制商品微服务 lagou-service-product,命名为 lagou-service-product2,端口号 9001;在商品微服务中定义接口,返回当前服务实例占用的端口号。

页面静态化微服务通过负载均衡策略调用商品微服务的 controller。

Eureka Server --服务实例列表--> 页面静态化微服务

页面静态化微服务 
--Ribbon--> 负载均衡算法 
----> [商品微服务 9000,商品微服务 9001,商品微服务 9002]

在微服务中使用 Ribbon 不需要额外导入依赖坐标,微服务中引入过 eureka-client 相关依赖,会自动引入 Ribbon 相关依赖坐标。

代码中使用如下,在服务消费者的 RestTemplate 上添加对应注解即可:

@SpringBootApplication
@EnableDiscoveryClient
public class PageApplication {

    public static void main(String[] args) {
        SpringApplication.run(PageApplication.class,args);
    }

    // 向容器中注入一个 RestTemplate,封装了 HttpClient
    @Bean
    @LoadBalanced // 启动请求的 Ribbon 负载均衡
    public RestTemplate restTemplate(){
        return new RestTemplate();
    }
}

在 lagou-serivce-product 中创建一个 Controller,定义方法返回当前微服务所使用的容器端口号:

com.renda.product.controller.ServiceInfoController

@RestController
@RequestMapping("/service")
public class ServiceInfoController {

    @Value("${server.port}")
    private String port;

    @GetMapping("/port")
    public String getPort(){
        return port;
    }

}

然后按照 lagou-serivce-product 复制创建 lagou-serivce-product2 微服务;端口改为 9001,除了 spring.applicaton.name 保持为 lagou-service-product,其它地方改为 lagou-service-product2;ProductApplication 改为 Product2Application;最后在父工程下手动加入新增的模块。最后如果 IDEA 没有显示新增模块,就删掉父工程的新增模块引入,同步一次后,再把新增模块引入代码加回去并同步。

在页面静态化微服务中调用 lagou-server-product 下的资源路径:http://lagou-server-product/server/query。

@RestController
@RequestMapping("/page")
public class PageController {

    @Autowired
    RestTemplate restTemplate;

    @GetMapping("/getProduct/{id}")
    public Products getProduct(@PathVariable Integer id) {
        String url = "http://lagou-service-product/product/query/" + id;
        return restTemplate.getForObject(url, Products.class);
    }

    @GetMapping("/loadProductServicePort")
    public String getProductServerPort() {
        return restTemplate.getForObject("http://lagou-service-product/service/port", String.class);
    }

}

Ribbon 负载均衡策略

Ribbon 内置了多种负载均衡策略,内部负责复杂均衡的顶级接口为 com.netflix.loadbalancer.IRule,接口简介:

package com.netflix.loadbalancer;
​
/**
 * Interface that defines a "Rule" for a LoadBalancer. A Rule can be thought of
 * as a Strategy for loadbalacing. Well known loadbalancing strategies include
 * Round Robin, Response Time based etc.
 * 
 * @author stonse
 * 
 */
public interface IRule{
    /*
     * choose one alive server from lb.allServers or
     * lb.upServers according to key
     * 
     * @return choosen Server object. NULL is returned if none
     *  server is available 
     */
​
    public Server choose(Object key);
    
    public void setLoadBalancer(ILoadBalancer lb);
    
    public ILoadBalancer getLoadBalancer();    
}

IRule 的子实现类:

IRule <--实现-- AbstractLoadBalancerRule
​
AbstractLoadBalancerRule <--继承-- [RandomRule, RoundRobinRule, ClientConfigEnabledRoundRobinRule, RetryRule]
​
RoundRobinRule <--继承-- WeightedResponseTimeRule 
​
ClientConfigEnabledRoundRobinRule 
<--继承-- [PredicateBasedRule, BestAvailableRule]
​
PredicateBasedRule 
<--继承-- [AvailabilityFilteringRule, ZoneAvoidanceRule]
  • RoundRobinRule - 轮询策略:

默认超过 10 次获取到的 server 都不可用,会返回一个空的 server。

  • RandomRule - 随机策略:

如果随机到的 server 为 null 或者不可用的话,会 while 不停的循环选取。

  • RetryRule - 重试策略:

一定时限内循环重试。默认继承 RoundRobinRule,也支持自定义注入,RetryRule 会在每次选取之后,对选举的 server 进行判断,是否为 null,是否 alive,并且在 500ms 内会不停的选取判断。而 RoundRobinRule 失效的策略是超过 10 次,RandomRule 是没有失效时间的概念,只要 serverList 没都挂。

  • BestAvailableRule - 最小连接数策略:

遍历 serverList,选取出可用的且连接数最小的一个 server。该算法里面有一个 LoadBalancerStats 的成员变量,会存储所有 server 的运行状况和连接数。如果选取到的 server 为 null,那么会调用 RoundRobinRule 重新选取。

  • AvailabilityFilteringRule - 可用过滤策略:

扩展了轮询策略,会先通过默认的轮询选取一个 server,再去判断该 server 是否超时可用,当前连接数是否超限,都成功再返回。

  • ZoneAvoidanceRule - 区域权衡策略(默认策略):

扩展了轮询策略,继承了 2 个过滤器:ZoneAvoidancePredicate 和 AvailabilityPredicate,除了过滤超时和链接数过多的 server,还会过滤掉不符合要求的 zone 区域里面的所有节点, 在一个区域/机房内的服务实例中轮询;先过滤再轮询。

修改负载均衡策略:

# 针对的被调用方微服务名称,不加就是全局生效
lagou-service-product:
  ribbon:
    # 请求连接超时时间
    ConnectTimeout: 2000
    # 请求处理超时时间
    ReadTimeout: 15000
    # 对所有操作都进行重试
    OkToRetryOnAllOperations: true
    ## 根据如上配置,当访问到故障请求的时候,它会再尝试访问一次当前实例(次数由 MaxAutoRetries 配置),
    ## 如果不行,就换一个实例进行访问,如果还不行,再换一次实例访问(更换次数由 MaxAutoRetriesNextServer 配置),
    ## 如果依然不行,返回失败信息。
    # 对当前选中实例重试次数,不包括第一次调用
    MaxAutoRetries: 2
    # 切换实例的重试次数
    MaxAutoRetriesNextServer: 2
    # 负载策略调整
    NFLoadBalancerRuleClassName: com.netflix.loadbalancer.AvailabilityFilteringRule

Ribbon 核心源码剖析

Ribbon 工作原理:

Actor ----> 拦截器 ----> 负载均衡算法(Ribbon)----> 目标微服务

Ribbon:按照一定算法选取服务实例

SpringCloud 充分利用了 SpringBoot 的自动装配特点。

引入的 Maven 依赖 --> spring-cloud-commons-2.1.0.RELEASE.jar --> META-INF --> spring.factories 配置文件:

# AutoConfiguration
org.springframework.boot.autoconfigure.EnableAutoConfiguration=
org.springframework.cloud.client.CommonsClientAutoConfiguration,
org.springframework.cloud.client.discovery.composite.CompositeDiscoveryClientAutoConfiguration,
org.springframework.cloud.client.discovery.noop.NoopDiscoveryClientAutoConfiguration,
org.springframework.cloud.client.discovery.simple.SimpleDiscoveryClientAutoConfiguration,
org.springframework.cloud.client.hypermedia.CloudHypermediaAutoConfiguration,
org.springframework.cloud.client.loadbalancer.AsyncLoadBalancerAutoConfiguration,
org.springframework.cloud.client.loadbalancer.LoadBalancerAutoConfiguration,

...

点击配置文件中的 LoadBalancerAutoConfiguration 跳转到其源码文件:

@Configuration
@ConditionalOnClass(RestTemplate.class)
@ConditionalOnBean(LoadBalancerClient.class)
@EnableConfigurationProperties(LoadBalancerRetryProperties.class)
public class LoadBalancerAutoConfiguration {

    @LoadBalanced
	@Autowired(required = false)
	private List<RestTemplate> restTemplates = Collections.emptyList();

    ...

	@Configuration
	@ConditionalOnMissingClass("org.springframework.retry.support.RetryTemplate")
	static class LoadBalancerInterceptorConfig {
		@Bean
		public LoadBalancerInterceptor ribbonInterceptor(
				LoadBalancerClient loadBalancerClient,
				LoadBalancerRequestFactory requestFactory) {
			return new LoadBalancerInterceptor(loadBalancerClient, requestFactory);
		}

		@Bean
		@ConditionalOnMissingBean
		public RestTemplateCustomizer restTemplateCustomizer(
				final LoadBalancerInterceptor loadBalancerInterceptor) {
			return restTemplate -> {
                List<ClientHttpRequestInterceptor> list = new ArrayList<>(
                        restTemplate.getInterceptors());
                list.add(loadBalancerInterceptor);
                restTemplate.setInterceptors(list);
            };
		}
	}

    ...
}
  • @Configuration 标识当前类为配置类
  • @ConditionalOnClass(RestTemplate.class) 表示只有存在 RestTemplate 类时该配置才会装配生效。
  • @ConditionalOnBean(LoadBalancerClient.class) 表示只有存在 LoadBalancerClient 类时改配置才生效。
  • restTemplates 集合会自动注入添加了 @LoadBalanced 注解的 RestTemplate 对象。
  • LoadBalancerInterceptorConfig 的 restTemplateCustomizer 为 restTemplates 集合添加了拦截器;该拦截器就是后续拦截请求进行负载处理的。

 

Hystrix 熔断器

Hystrix 熔断器属于一种容错机制。

 

微服务中的雪崩效应

微服务中,一个请求可能需要多个微服务接口才能实现,会形成复杂的调用链路。

服务雪崩效应:是一种因“服务提供者的不可用”导致“服务调用者不可用”,并将不可用逐渐放大的现象。

[MQ 微服务,MQ 微服务,MQ 微服务] ----> 静态化微服务 ----> 商品微服务

站在静态化微服务角度来看:
扇入 - 上游服务对该服务的调用
扇出 - 该服务对下游服务的调用
  • 扇入:代表着该微服务被调用的次数,扇入大,说明该模块复用性好。
  • 扇出:该微服务调用其他微服务的个数,扇出大,说明业务逻辑复杂。

扇入大是一个好事,扇出大不一定是好事。

在微服务架构中,一个应用可能会有多个微服务组成,微服务之间的数据交互通过远程过程调用完成。这就带来一个问题,假设微服务 A 调用微服务 B 和微服务 C,微服务 B 和微服务 C 又调用其它的微服务,这就是所谓的“扇出”。如果扇出的链路上某个微服务的调用响应时间过长或者不可用,对微服务 A 的调用就会占用越来越多的系统资源,进而引起系统崩溃,所谓的“雪崩效应”。

最下游商品微服务响应时间过长,大量请求阻塞,大量线程不会释放,会导致服务器资源耗尽,最终导致上游服务甚至整个系统瘫痪。

形成原因 - 服务雪崩的过程可以分为三个阶段:

  1. 服务提供者不可用。
  2. 重试加大请求流量。
  3. 服务调用者不可用。

服务雪崩的每个阶段都可能由不同的原因造成:

服务提供者不可用:硬件故障、程序 Bug、缓存击穿、用户大量请求。

重试加大请求流量:用户重试、代码逻辑重试。

服务调用者不可用:同步等待造成的资源耗尽。

 

雪崩效应解决方案

从可用性可靠性着想,为防止系统的整体缓慢甚至崩溃,采用的技术手段。

介绍三种技术手段应对微服务中的雪崩效应,这三种手段都是从系统可用性、可靠性角度出发,尽量防止系统整体缓慢甚至瘫痪。

服务熔断

熔断机制是应对雪崩效应的一种微服务链路保护机制。在各种场景下都会接触到熔断。高压电路中,如果某个地方的电压过高,熔断器就会熔断,对电路进行保护。股票交易中,如果股票指数过高,也会采用熔断机制,暂停股票的交易。同样,在微服务架构中,熔断机制也是起着类似的作用。当扇出链路的某个微服务不可用或者响应时间太长时,熔断该节点微服务的调用,进行服务的降级,快速返回错误的响应信息。当检测到该节点微服务调用响应正常后,恢复调用链路。

注意:

1)服务熔断重点在“断”,切断对下游服务的调用。

2)服务熔断和服务降级往往是一起使用的,Hystrix 就是这样。

服务降级

通俗讲就是整体资源不够用了,先将一些不关紧的服务停掉(调用的时候,返回一个预留的值,也叫做兜底数据),待渡过难关高峰过去,再把那些服务打开。

服务降级一般是从整体考虑,就是当某个服务熔断之后,服务器将不再被调用,此刻客户端可以自己准备一个本地的 Fallback 回调,返回一个默认值,这样做,虽然服务水平下降,但好歹可用,比直接挂掉要强。

服务限流

服务出问题或者影响到核心流程的性能时,暂时将服务屏蔽掉,待高峰或者问题解决后再打开;但是有些场景并不能用服务降级来解决,比如秒杀业务这样的核心功能,这个时候可以结合服务限流来限制这些场景的并发 / 请求量。

限流措施:

  • 限制总并发数(比如数据库连接池、线程池)。
  • 限制瞬时并发数(如 nginx 限制瞬时并发连接数)。
  • 限制时间窗口内的平均速率(如 Guava 的 RateLimiter、nginx 的 limit_req 模块,限制每秒的平均速率)。
  • 限制远程接口调用速率、限制 MQ 的消费速率等。

 

Hystrix 简介

Hystrix - defend your application 是由 Netflix 开源的一个延迟和容错库,用于隔离访问远程系统、服务或者第三方库,防止级联失败,从而提升系统的可用性与容错性。

Hystrix 主要通过以下几点实现延迟和容错:

  • 包裹请求:使用 HystrixCommand 包裹对依赖的调用逻辑。如页面静态化微服务方法使用 @HystrixCommand 添加 Hystrix 控制。
  • 跳闸机制:当某服务的错误率超过一定的阈值时,Hystrix 可以跳闸,停止请求该服务一段时间。
  • 资源隔离:Hystrix 为每个依赖都维护了一个小型的线程池 - 舱壁模式。如果该线程池已满, 发往该依赖的请求就被立即拒绝,而不是排队等待,从而加速失败判定。
  • 监控:Hystrix 可以近乎实时地监控运行指标和配置的变化,例如成功、失败、超时、以及被拒绝的请求等。
  • 回退机制:当请求失败、超时、被拒绝,或当断路器打开时,执行回退逻辑。回退逻辑由开发人员自行提供,例如返回一个默认值。
  • 自我修复:断路器打开一段时间后,会自动进入“半开”状态,从而探测服务是否可用;如果还是不可用,再次退回打开状态。

 

Hystrix 应用

熔断处理

目的:商品微服务长时间没有响应,服务消费者 --> 页面静态化微服务快速失败给用户提示。

引入依赖:服务消费者工程(静态化微服务)中引入Hystrix依赖坐标(也可以添加在父工程中)

<!-- 熔断器 Hystrix -->
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-netflix-hystrix</artifactId>
</dependency>

开启熔断:服务消费者工程(静态化微服务)的启动类中添加熔断器开启注解 @EnableCircuitBreaker。

@SpringBootApplication
@EnableDiscoveryClient
@EnableCircuitBreaker // 启用熔断服务
public class PageApplication {

    public static void main(String[] args) {
        SpringApplication.run(PageApplication.class,args);
    }

    // 向容器中注入一个 RestTemplate,封装了 HttpClient
    @Bean
    @LoadBalanced // 启动请求的 Ribbon 负载均衡
    public RestTemplate restTemplate(){
        return new RestTemplate();
    }
}

定义服务降级处理方法:业务方法上使用 @HystrixCommand 的 fallbackMethod 属性关联到服务降级处理方法。

@RestController
@RequestMapping("/page")
public class PageController {
​
    @Autowired
    RestTemplate restTemplate;
​
    ...
​
    /**
     * 模拟服务超时,熔断处理
     * 针对熔断处理,Hystrix 默认维护一个线程池,默认大小为 10。
     */
    @HystrixCommand(
            //只有是在 @HystrixCommand 中定义了 threadPoolKey,就意味着开启了舱壁模式(线程隔离),该方法就会自己维护一个线程池。
            // 默认所有的请求共同维护一个线程池,实际开发:每个方法维护一个线程池
            threadPoolKey = "getProductServerPort2",
            // 每一个属性对应的都是一个 HystrixProperty
            threadPoolProperties = {
                    // 并发线程数
                    @HystrixProperty(name = "coreSize", value = "1"),
                    // 默认线程队列值是 -1,默认不开启
                    @HystrixProperty(name = "maxQueueSize", value = "20")
            },
            // 超时时间的设置
            commandProperties = {
                    // 设置请求的超时时间,一旦请求超过此时间那么都按照超时处理,默认超时时间是 1s
                    @HystrixProperty(name = "execution.isolation.thread.timeoutInMilliseconds", value = "2000")
            }
    )
    @GetMapping("/loadProductServicePort2")
    public String getProductServerPort2() {
        return restTemplate.getForObject("http://lagou-service-product/service/port", String.class);
    }
​
}

商品微服务模拟超时操作:

@RestController
@RequestMapping("/service")
public class ServiceInfoController {
​
    @Value("${server.port}")
    private String port;
​
    @GetMapping("/port")
    public String getPort(){
        try {
            Thread.sleep(5000);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
        return port;
    }
​
}

使用 Postman 测试:

GET http://localhost:9100/page/loadProductServicePort2

测试返回超时错误信息:getProductServerPort2 timed-out and fallback failed.。

因为没有降级处理,所以只得到 500 超时错误信息。

降级处理

配置 @HystrixCommand 注解,定义降级处理方法:

@RestController
@RequestMapping("/page")
public class PageController {
​
    @Autowired
    RestTemplate restTemplate;
    
    ...
​
    /**
     * 服务降级演示:是在服务熔断之后的兜底操作
     */
    @HystrixCommand(
            // 超时时间的设置
            commandProperties = {
                    // 设置请求的超时时间,一旦请求超过此时间那么都按照超时处理,默认超时时间是 1s
                    @HystrixProperty(name = "execution.isolation.thread.timeoutInMilliseconds", value = "2000"),
                    // 统计窗口时间的设置
                    @HystrixProperty(name = "metrics.rollingStats.timeInMilliseconds",value = "8000"),
                    // 统计窗口内的最小请求数
                    @HystrixProperty(name = "circuitBreaker.requestVolumeThreshold",value = "2"),
                    // 统计窗口内错误请求阈值的设置  50%
                    @HystrixProperty(name = "circuitBreaker.errorThresholdPercentage",value = "50"),
                    // 自我修复的活动窗口时间
                    @HystrixProperty(name = "circuitBreaker.sleepWindowInMilliseconds",value = "3000")
            },
            // 设置回退方法
            fallbackMethod = "getProductServerPortFallBack"
    )
    @GetMapping("/loadProductServicePort3")
    public String getProductServerPort3() {
        return restTemplate.getForObject("http://lagou-service-product/service/port", String.class);
    }
​
    /**
     * 定义回退方法,当请求出发熔断后执行,补救措施
     * 注意:
     *   1.方法形参和原方法保持一致
     *   2.方法的返回值与原方法保持一致
     */
    public String getProductServerPortFallBack(){
        // 兜底数据
        return "-1";
    }
​
}

使用 Postman 测试:

GET http://localhost:9100/page/loadProductServicePort3

 

Hystrix 舱壁模式

Hystrix 舱壁模式即线程池隔离策略。

如果不进行任何设置,所有熔断方法使用一个 Hystrix 线程池(10 个线程),那么这样的话会导致问题,这个问题并不是扇出链路微服务不可用导致的,而是线程机制导致的,如果方法 A 的请求把 10 个线程都用了,方法 2 请求处理的时候压根都没法去访问 B,因为没有线程可用,并不是 B 服务不可用:

----> 带有 @HystrixCommand 注解方法1 
--10个请求--> Hystrix 默认的线程池
----> A 服务
​
----> 带有 @HystrixCommand 注解方法2 
--10个请求--> Hystrix 默认的线程池
----> A 服务
​
所有加有 @HystrixCommand 的方法会共同维护一个线程池;
默认线程池有 10 个线程,默认队列值为 -1;
如果不进行任何设置,
Hystrix 默认的线程池实现不适合在生产环境中使用。

为了避免问题服务请求过多导致正常服务无法访问,Hystrix 不是采用增加线程数,而是单独的为每一个控制方法创建一个线程池的方式,这种模式叫做“舱壁模式",也是线程隔离的手段;即在 @HystrixCommand 中设置 threadPoolProperties 属性

 

Hystrix 工作流程与高级应用

出现调用错误 ----> 是否达到最小请求数 

没有达到最小请求数 ----> 没有遇到问题
达到最小请求数 ----> 错误数量是否达到阈值

错误数量没有达到阈值 ----> 没有遇到问题
错误数量达到阈值 ----> 跳闸

跳闸 ----> 远程服务是否已经正常

远程服务不正常 ----> 跳闸
远程服务正常 ----> 重置断路器,调用可以通过

10 秒时间窗口:检测是否达到最小请求数和错误数量是否达到阈值。
5 秒活动窗口:检测远程服务是否已经正常。

1)当调用出现问题时,开启一个时间窗(10s)

2)在这个时间窗内,统计调用次数是否达到最小请求数?如果没有达到,则重置统计信息,回到第 1 步;如果达到了,则统计失败的请求数占所有请求数的百分比。然后统计是否达到阈值? 如果达到,则跳闸(不再请求对应服务);如果没有达到,则重置统计信息,回到第 1 步。

3)如果跳闸,则会开启一个活动窗口(默认 5s),每隔 5s,Hystrix 会让一个请求通过,到达那个问题服务,看是否调用成功,如果成功,重置断路器回到第 1 步,如果失败,回到第 3 步。

可以自定义的断路器行为:

  • 出现错误时,时间窗口的长度。
  • 最小请求数。
  • 错误请求的百分比。
  • 跳闸后,活动窗口的长度。
@HystrixCommand(
    // 超时时间的设置
    commandProperties = {
        // 设置请求的超时时间,一旦请求超过此时间那么都按照超时处理,默认超时时间是 1s
        @HystrixProperty(name = "execution.isolation.thread.timeoutInMilliseconds", value = "2000"),
        // 统计窗口时间的设置
        @HystrixProperty(name = "metrics.rollingStats.timeInMilliseconds",value = "8000"),
        // 统计窗口内的最小请求数
        @HystrixProperty(name = "circuitBreaker.requestVolumeThreshold",value = "2"),
        // 统计窗口内错误请求阈值的设置  50%
        @HystrixProperty(name = "circuitBreaker.errorThresholdPercentage",value = "50"),
        // 自我修复的活动窗口时间
        @HystrixProperty(name = "circuitBreaker.sleepWindowInMilliseconds",value = "3000")
    },
)

上述通过注解进行的配置也可以配置在配置文件中:

# 配置熔断策略:
hystrix:
  command:
    default:
      circuitBreaker:
        # 强制打开熔断器,如果该属性设置为 true,强制断路器进入打开状态,将会拒绝所有的请求。 默认 false 关闭的
        forceOpen: false
        # 触发熔断错误比例阈值,默认值 50%
        errorThresholdPercentage: 50
        # 熔断后休眠时长,默认值 5 秒
        sleepWindowInMilliseconds: 3000
        # 熔断触发最小请求次数,默认值是 20
        requestVolumeThreshold: 2
      execution:
        isolation:
          thread:
            # 熔断超时设置,默认为 1 秒
            timeoutInMilliseconds: 2000

基于 spring boot 的健康检查观察跳闸状态(自动投递微服务暴露健康检查细节):

# springboot 中暴露健康检查等断点接口
management:
  endpoints:
    web:
      exposure:
        include: "*"
  # 暴露健康接口的细节
  endpoint:
    health:
      show-details: always

使用 Postman 访问健康检查接口:

GET http://localhost:9100/actuator/health

 

Hystrix 线程池队列配置案例

有一次在生产环境,突然出现了很多笔还款单被挂起,后来排查原因,发现是内部系统调用时出现了 Hystrix 调用异常。在开发过程中,因为核心线程数设置的比较大,没有出现这种异常。放到了测试环境,偶尔有出现这种情况。

后来调整 maxQueueSize 属性,确实有所改善。可没想到在生产环境跑了一段时间后却又出现这种了情况,此时去查看 maxQueueSize 属性,可是 maxQueueSize 属性是设置值了。

为什么 maxQueueSize 属性不起作用,后来通过查看官方文档发现 Hystrix 还有一个 queueSizeRejectionThreshold 属性,这个属性是控制队列最大阈值的,而 Hystrix 默认只配置了 5 个,因此就算把 maxQueueSize 的值设置再大,也是不起作用的,两个属性必须同时配置。

hystrix:
  threadpool:
    default:
      # 并发执行的最大线程数,默认 10;建议和服务器的核数一样
      coreSize: 10
      # BlockingQueue 的最大队列数,默认值 -1
      maxQueueSize: 1000
      # 即使 maxQueueSize 没有达到,达到 queueSizeRejectionThreshold 该值后,请求也会被拒绝,默认值 5
      queueSizeRejectionThreshold: 800

改进后的配置案例 - 将核心线程数调低,最大队列数和队列拒绝阈值的值都设置大一点:

hystrix:
  threadpool:
    default:
      coreSize: 10
      maxQueueSize: 1500
      queueSizeRejectionThreshold: 1000

想了解更多,欢迎关注我的微信公众号:Renda_Zhang



Tags:微服务   点击:()  评论:()
声明:本站部分内容及图片来自互联网,转载是出于传递更多信息之目的,内容观点仅代表作者本人,如有任何标注错误或版权侵犯请与我们联系(Email:2595517585@qq.com),我们将及时更正、删除,谢谢。
▌相关推荐
▶ 企业级项目结构封装释义 如果你刚毕业,作为Java新手程序员进入一家企业,拿到代码之后,你有什么感觉呢?如果你没有听过多模块、分布式这类的概念,那么多半会傻眼。为什么一个项...【详细内容】
2021-12-20  Tags: 微服务  点击:(8)  评论:(0)  加入收藏
前面谈过很多关于数字化转型,云原生,微服务方面的文章。虽然自己一直做大集团的SOA集成平台咨询规划和建设项目,但是当前传统企业数字化转型,国产化和自主可控,云原生,微服务是不...【详细内容】
2021-12-06  Tags: 微服务  点击:(23)  评论:(0)  加入收藏
微服务看似是完美的解决方案。从理论上来说,微服务提高了开发速度,而且还可以单独扩展应用的某个部分。但实际上,微服务带有一定的隐形成本。我认为,没有亲自动手构建微服务的经历,就无法真正了解其复杂性。...【详细内容】
2021-11-26  Tags: 微服务  点击:(35)  评论:(0)  加入收藏
实施微服务架构,我们一直在遵循一个实践原则:每个微服务要有自己独立的数据库,避免数据库层面的耦合。这种理所当然感觉好像不需要多加思考,就是应该这样做; 图片来源:James Lewi...【详细内容】
2021-10-11  Tags: 微服务  点击:(42)  评论:(0)  加入收藏
在今年的NGINX Sprint 2.0虚拟大会上,NGINX(来自流行的开源web服务器/负载均衡器和反向代理背后的公司F5),发布了NGINX现代应用参考架构(MARA)。该公司在一篇博客文章中说,这将帮...【详细内容】
2021-09-26  Tags: 微服务  点击:(60)  评论:(0)  加入收藏
今天,字节跳动正式宣布开源 CloudWeGo。这是一套以 Go 语言为核心、专注于微服务通信与治理的中间件集合,具有高性能、可扩展、高可靠的特点。项目地址:https://github.com/clo...【详细内容】
2021-09-08  Tags: 微服务  点击:(93)  评论:(0)  加入收藏
1. Spring Boot 与 Spring Cloud Spring Boot 是用于编写微服务的 Java 基础框架。在Spring Cloud 提供了各种构建全栈微服务的功能。构建小型和大型系统都适合。由于控制反...【详细内容】
2021-08-31  Tags: 微服务  点击:(162)  评论:(0)  加入收藏
现有问题在 EFK 日志收集 篇中,我们讲解了如何利用 EFK 收集 Kubernetes 集群日志。但是,还存在如下问题。 Elasticsearch 以单节点的形式部署,不能满足生产环境的要求 Fluentd...【详细内容】
2021-08-13  Tags: 微服务  点击:(102)  评论:(0)  加入收藏
在 Java 和 Kotlin 中, 除了使用Spring Boot创建微服务外,还有很多其他的替代方案。 名称 版本 发布时间 开发商 GitHub ...【详细内容】
2021-08-06  Tags: 微服务  点击:(173)  评论:(0)  加入收藏
一、微服务的现状及未来1.服务架构的演变1.1 单体架构&emsp;&emsp;单体架构应该是我们最先接触到的架构实现了,在单体架构中使用经典的三层模型,即表现层,业务逻辑层和数据访问...【详细内容】
2021-07-22  Tags: 微服务  点击:(125)  评论:(0)  加入收藏
▌简易百科推荐
为了构建高并发、高可用的系统架构,压测、容量预估必不可少,在发现系统瓶颈后,需要有针对性地扩容、优化。结合楼主的经验和知识,本文做一个简单的总结,欢迎探讨。1、QPS保障目标...【详细内容】
2021-12-27  大数据架构师    Tags:架构   点击:(3)  评论:(0)  加入收藏
前言 单片机开发中,我们往往首先接触裸机系统,然后到RTOS,那么它们的软件架构是什么?这是我们开发人员必须认真考虑的问题。在实际项目中,首先选择软件架构是非常重要的,接下来我...【详细内容】
2021-12-23  正点原子原子哥    Tags:架构   点击:(7)  评论:(0)  加入收藏
现有数据架构难以支撑现代化应用的实现。 随着云计算产业的快速崛起,带动着各行各业开始自己的基于云的业务创新和信息架构现代化,云计算的可靠性、灵活性、按需计费的高性价...【详细内容】
2021-12-22    CSDN  Tags:数据架构   点击:(10)  评论:(0)  加入收藏
▶ 企业级项目结构封装释义 如果你刚毕业,作为Java新手程序员进入一家企业,拿到代码之后,你有什么感觉呢?如果你没有听过多模块、分布式这类的概念,那么多半会傻眼。为什么一个项...【详细内容】
2021-12-20  蜗牛学苑    Tags:微服务   点击:(8)  评论:(0)  加入收藏
我是一名程序员关注我们吧,我们会多多分享技术和资源。进来的朋友,可以多了解下青锋的产品,已开源多个产品的架构版本。Thymeleaf版(开源)1、采用技术: springboot、layui、Thymel...【详细内容】
2021-12-14  青锋爱编程    Tags:后台架构   点击:(20)  评论:(0)  加入收藏
在了解连接池之前,我们需要对长、短链接建立初步认识。我们都知道,网络通信大部分都是基于TCP/IP协议,数据传输之前,双方通过“三次握手”建立连接,当数据传输完成之后,又通过“四次挥手”释放连接,以下是“三次握手”与“四...【详细内容】
2021-12-14  架构即人生    Tags:连接池   点击:(16)  评论:(0)  加入收藏
随着移动互联网技术的快速发展,在新业务、新领域、新场景的驱动下,基于传统大型机的服务部署方式,不仅难以适应快速增长的业务需求,而且持续耗费高昂的成本,从而使得各大生产厂商...【详细内容】
2021-12-08  架构驿站    Tags:分布式系统   点击:(23)  评论:(0)  加入收藏
本系列为 Netty 学习笔记,本篇介绍总结Java NIO 网络编程。Netty 作为一个异步的、事件驱动的网络应用程序框架,也是基于NIO的客户、服务器端的编程框架。其对 Java NIO 底层...【详细内容】
2021-12-07  大数据架构师    Tags:Netty   点击:(16)  评论:(0)  加入收藏
前面谈过很多关于数字化转型,云原生,微服务方面的文章。虽然自己一直做大集团的SOA集成平台咨询规划和建设项目,但是当前传统企业数字化转型,国产化和自主可控,云原生,微服务是不...【详细内容】
2021-12-06  人月聊IT    Tags:架构   点击:(23)  评论:(0)  加入收藏
微服务看似是完美的解决方案。从理论上来说,微服务提高了开发速度,而且还可以单独扩展应用的某个部分。但实际上,微服务带有一定的隐形成本。我认为,没有亲自动手构建微服务的经历,就无法真正了解其复杂性。...【详细内容】
2021-11-26  GreekDataGuy  CSDN  Tags:单体应用   点击:(35)  评论:(0)  加入收藏
最新更新
栏目热门
栏目头条