Elasticsearch集群部署(Linux || Windows)

悠悠 2023-09-30 09:58 67阅读 0赞

单机 & 集群
单台 Elasticsearch 服务器提供服务,往往都有最大的负载能力,超过这个阈值,服务器 性能就会大大降低甚至不可用,所以生产环境中,一般都是运行在指定服务器集群中。 除了负载能力,单点服务器也存在其他问题:

  • 单台机器存储容量有限
  • 单服务器容易出现单点故障,无法实现高可用
  • 单服务的并发处理能力有限

配置服务器集群时,集群中节点数量没有限制,大于等于 2 个节点就可以看做是集群了。一 般出于高性能及高可用方面来考虑集群中节点数量都是 3 个以上。

集群 Cluster

一个集群就是由一个或多个服务器节点组织在一起,共同持有整个的数据,并一起提供 索引和搜索功能。一个 Elasticsearch 集群有一个唯一的名字标识,这个名字默认就 是”elasticsearch”。这个名字是重要的,因为一个节点只能通过指定某个集群的名字,来加入 这个集群。

节点 Node

集群中包含很多服务器,一个节点就是其中的一个服务器。作为集群的一部分,它存储 数据,参与集群的索引和搜索功能。 一个节点也是由一个名字来标识的,默认情况下,这个名字是一个随机的漫威漫画角色 的名字,这个名字会在启动的时候赋予节点。这个名字对于管理工作来说挺重要的,因为在 这个管理过程中,你会去确定网络中的哪些服务器对应于 Elasticsearch 集群中的哪些节点。

一个节点可以通过配置集群名称的方式来加入一个指定的集群。默认情况下,每个节点 都会被安排加入到一个叫做“elasticsearch”的集群中,这意味着,如果你在你的网络中启动了 若干个节点,并假定它们能够相互发现彼此,它们将会自动地形成并加入到一个叫做 “elasticsearch”的集群中。在一个集群里,只要你想,可以拥有任意多个节点。而且,如果当前你的网络中没有运 行任何 Elasticsearch 节点,这时启动一个节点,会默认创建并加入一个叫做“elasticsearch”的 集群。

Windows集群

  1. 创建 elasticsearch-cluster 文件夹,在内部复制三个 elasticsearch 服务

链接:windows 7.8.0下载 km3o

  • 文件夹1:node-1001
  • 文件夹2:node-1002
  • 文件夹3:node-1003
  1. 修改集群文件目录中每个节点的 config/elasticsearch.yml 配置文件

    • node-1001 节点

    节点 1 的配置信息:

    集群名称,节点之间要保持一致

    cluster.name: my-elasticsearch

    节点名称,集群内要唯一

    node.name: node-1001
    node.master: true
    node.data: true

    ip 地址

    network.host: localhost

    http 端口

    http.port: 1001

    tcp 监听端口

    transport.tcp.port: 9301

    discovery.seed_hosts: [“localhost:9301”, “localhost:9302”,”localhost:9303”]

    discovery.zen.fd.ping_timeout: 1m

    discovery.zen.fd.ping_retries: 5

    集群内的可以被选为主节点的节点列表

    cluster.initial_master_nodes: [“node-1”, “node-2”,”node-3”]

    跨域配置

    action.destructive_requires_name: true

    http.cors.enabled: true
    http.cors.allow-origin: “*”

    • node-1002 节点

    节点 2 的配置信息:

    集群名称,节点之间要保持一致

    cluster.name: my-elasticsearch

    节点名称,集群内要唯一

    node.name: node-1002
    node.master: true
    node.data: true

    ip 地址

    network.host: localhost

    http 端口

    http.port: 1002

    tcp 监听端口

    transport.tcp.port: 9302
    discovery.seed_hosts: [“localhost:9301”]
    discovery.zen.fd.ping_timeout: 1m
    discovery.zen.fd.ping_retries: 5

    集群内的可以被选为主节点的节点列表

    cluster.initial_master_nodes: [“node-1”, “node-2”,”node-3”]

    跨域配置

    action.destructive_requires_name: true

    http.cors.enabled: true
    http.cors.allow-origin: “*”

    • node-1003 节点

    节点 3 的配置信息:

    集群名称,节点之间要保持一致

    cluster.name: my-elasticsearch

    节点名称,集群内要唯一

    node.name: node-1003
    node.master: true
    node.data: true

    ip 地址

    network.host: localhost

    http 端口

    http.port: 1003

    tcp 监听端口

    transport.tcp.port: 9303

    候选主节点的地址,在开启服务后可以被选为主节点

    discovery.seed_hosts: [“localhost:9301”, “localhost:9302”]
    discovery.zen.fd.ping_timeout: 1m
    discovery.zen.fd.ping_retries: 5

    集群内的可以被选为主节点的节点列表

    cluster.initial_master_nodes: [“node-1”, “node-2”,”node-3”]

    跨域配置

    action.destructive_requires_name: true

    http.cors.enabled: true
    http.cors.allow-origin: “*”

启动集群

  1. 启动前先删除每个节点中的 data 目录中所有内容(如果存在)
  2. 分别双击执行 bin/elasticsearch.bat, 启动节点服务器,启动后,会自动加入指定名称的 集群
  3. 遇到窗口闪退的情况,yml配置文件里不要写中文注释

测试集群

查看集群状态

在PostMan中 Get 请求, 127.0.0.1:1001/_cluster/health

127.0.0.1:1002/_cluster/health

127.0.0.1:1003/_cluster/health

  1. {
  2. "cluster_name": "my-application",
  3. "status": "green",
  4. "timed_out": false,
  5. "number_of_nodes": 3,
  6. "number_of_data_nodes": 3,
  7. "active_primary_shards": 0,
  8. "active_shards": 0,
  9. "relocating_shards": 0,
  10. "initializing_shards": 0,
  11. "unassigned_shards": 0,
  12. "delayed_unassigned_shards": 0,
  13. "number_of_pending_tasks": 0,
  14. "number_of_in_flight_fetch": 0,
  15. "task_max_waiting_in_queue_millis": 0,
  16. "active_shards_percent_as_number": 100
  17. }

Status 字段指示着当前集群在总体上是否工作正常,它的三种颜色含义如下:

green: 所有的主分片和副本分片都正常运行。
yellow: 所有的主分片都正常运行,但不是所有的副本分片都正常运行
red: 有主分片没能正常运行

向集群中的 node-1001 节点增加索引 PUT http://127.0.0.1:1001/user, 响应结果:

  1. {
  2. "acknowledged": true,
  3. "shards_acknowledged": true,
  4. "index": "user"
  5. }

向集群中的 node-1002 节点查询索引 GET http://127.0.0.1:1002/user, 响应结果:

  1. {
  2. "user": {
  3. "aliases": {
  4. },
  5. "mappings": {
  6. },
  7. "settings": {
  8. "index": {
  9. "creation_date": "1647677378136",
  10. "number_of_shards": "1",
  11. "number_of_replicas": "1",
  12. "uuid": "w0vpjJpBTbytllb4oZ6Jsw",
  13. "version": {
  14. "created": "7080099"
  15. },
  16. "provided_name": "user"
  17. }
  18. }
  19. }
  20. }

Linux单机

下载选择 LINUX X86_64

  1. 上传解压

上传至 /opt/software目录,解压、重命名

  1. tar -zxvf elasticsearch-7.8.0-linux-x86_64.tar.gz
  2. mv elasticsearch-7.8.0 es
  1. 创建用户

因为安全问题,Elasticsearch 不允许 root 用户直接运行,所以要创建新用户,在 root 用 户中创建新用户

  1. useradd es #新增 es 用户
  2. passwd es #为 es 用户设置密码
  3. userdel -r es #如果错了,可以删除再加
  4. chown -R es:es /opt/module/es #文件夹所有者
  1. 修改配置文件

修改/opt/module/es/config/elasticsearch.yml 文件

  1. # 加入如下配置
  2. cluster.name: elasticsearch
  3. node.name: node-1
  4. network.host: 0.0.0.0
  5. http.port: 9200
  6. cluster.initial_master_nodes: ["node-1"]

修改/etc/security/limits.conf

  1. # 在文件末尾中增加下面内容
  2. # 每个进程可以打开的文件数的限制
  3. es soft nofile 65536
  4. es hard nofile 65536

修改/etc/security/limits.d/20-nproc.conf

  1. # 在文件末尾中增加下面内容
  2. # 每个进程可以打开的文件数的限制
  3. es soft nofile 65536
  4. es hard nofile 65536
  5. # 操作系统级别对每个用户创建的进程数的限制
  6. * hard nproc 4096
  7. # 注:* 带表 Linux 所有用户名称

修改/etc/sysctl.conf

  1. # 在文件中增加下面内容
  2. # 一个进程可以拥有的 VMA(虚拟内存区域)的数量,默认值为 65536
  3. vm.max_map_count=655360

重新加载

  1. sysctl -p
  1. 启动

切换es用户启动

  1. su es
  2. cd /opt/es/
  3. #启动
  4. bin/elasticsearch
  5. #后台启动
  6. bin/elasticsearch -d

启动遇到 AccessDeniedException,切回root用户重新授权

  1. su root
  2. chown -R es:es /opt/es

关闭防火墙

  1. #暂时关闭防火墙
  2. systemctl stop firewalld
  3. #永久关闭防火墙
  4. systemctl enable firewalld.service #打开放货抢永久性生效,重启后不会复原
  5. systemctl disable firewalld.service #关闭防火墙,永久性生效,重启后不会复原

测试

访问 http://ip:9200/

Linux集群

上传文件,解压,创建用户同上,此处略过。。。

  1. 修改/opt/module/es/config/elasticsearch.yml 文件,分发文件

    加入如下配置

    集群名称

    cluster.name: cluster-es

    节点名称,每个节点的名称不能重复

    node.name: node-1

    ip 地址,每个节点的地址不能重复

    network.host: linux1

    是不是有资格主节点

    node.master: true
    node.data: true
    http.port: 9200

    head 插件需要这打开这两个配置

    http.cors.allow-origin: “*”
    http.cors.enabled: true
    http.max_content_length: 200mb

    es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举 master

    cluster.initial_master_nodes: [“node-1”]

    es7.x 之后新增的配置,节点发现

    discovery.seed_hosts: [“linux1:9300”,”linux2:9300”,”linux3:9300”]
    gateway.recover_after_nodes: 2
    network.tcp.keep_alive: true
    network.tcp.no_delay: true
    transport.tcp.compress: true

    集群内同时启动的数据任务个数,默认是 2 个

    cluster.routing.allocation.cluster_concurrent_rebalance: 16

    添加或删除节点及负载均衡时并发恢复的线程个数,默认 4 个

    cluster.routing.allocation.node_concurrent_recoveries: 16

    初始化数据恢复时,并发恢复线程的个数,默认 4 个

    cluster.routing.allocation.node_initial_primaries_recoveries: 16

每台节点上修改node.namenetwork.host

修改/etc/security/limits.conf

  1. # 在文件末尾中增加下面内容
  2. es soft nofile 65536
  3. es hard nofile 65536

修改/etc/security/limits.d/20-nproc.conf

  1. # 在文件末尾中增加下面内容
  2. es soft nofile 65536
  3. es hard nofile 65536
  4. * hard nproc 4096
  5. # 注:* 带表 Linux 所有用户名称

修改/etc/sysctl.conf

  1. # 在文件中增加下面内容
  2. vm.max_map_count=655360

重新加载

  1. sysctl -p

启动软件

分别在不同节点上用ES用户启动 ES 软件

  1. cd /opt/module/es-cluster
  2. #启动
  3. bin/elasticsearch
  4. #后台启动
  5. bin/elasticsearch -d

测试

http://ip:9200/\_cat/nodes

发表评论

表情:
评论列表 (有 0 条评论,67人围观)

还没有评论,来说两句吧...

相关阅读