Docker基础篇 - (六)Docker 网络&Spring Boot微服务打包Docker镜像

我不是女神ヾ 2023-10-02 09:34 111阅读 0赞

⑦ Docker 网络

7.1 理解Docker0

清空下前面的docker 镜像、容器

  1. # 删除全部容器
  2. [root@cVzhanshi tomcat-diy]# docker rm -f $(docker ps -aq)
  3. # 删除全部镜像
  4. [root@cVzhanshi tomcat-diy]# docker rmi -f $(docker images -aq)
  • 用ip addr查看Linux系统中的网卡

在这里插入图片描述

三个网络

问题: docker 是如果处理容器网络访问的?
在这里插入图片描述

  1. # 测试,运行一个tomcat
  2. [root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat01 tomcat
  3. # 查看容器内部网络地址,发现容器启动的时候会得到一个 eth0@if83 ip地址,docker分配
  4. [root@cVzhanshi tomcat-diy]# docker exec -it 3e898fccd455 ip addr

在这里插入图片描述

  1. # 思考? linux能不能ping通容器内部! 可以 容器内部可以ping通外界吗? 都可以!
  2. # Linux ping容器内部
  3. [root@cVzhanshi tomcat-diy]# ping 172.17.0.2
  4. PING 172.17.0.2 (172.17.0.2) 56(84) bytes of data.
  5. 64 bytes from 172.17.0.2: icmp_seq=1 ttl=64 time=0.110 ms
  6. 64 bytes from 172.17.0.2: icmp_seq=2 ttl=64 time=0.084 ms
  7. # 容器内部 ping Linux系统外界
  8. [root@3e898fccd455 local]# ping 172.17.0.1
  9. PING 172.17.0.1 (172.17.0.1) 56(84) bytes of data.
  10. 64 bytes from 172.17.0.1: icmp_seq=1 ttl=64 time=0.103 ms
  11. 64 bytes from 172.17.0.1: icmp_seq=2 ttl=64 time=0.061 ms

原理:

  • 我们每启动一个docker容器,docker就会给docker容器分配一个ip,我们只要按照了docker,就会有一个docker0桥接模式,使用的技术是veth-pair技术!

    veth-pair技术:https://www.cnblogs.com/bakari/p/10613710.html

在这里插入图片描述

  • 再启动一个容器测试,发现又多了一对网络

在这里插入图片描述

  1. # 我们发现这个容器带来网卡,都是一对对的
  2. # veth-pair 就是一对的虚拟设备接口,他们都是成对出现的,一端连着协议,一端彼此相连
  3. # 正因为有这个特性 veth-pair 充当一个桥梁,连接各种虚拟网络设备的
  4. # OpenStac,Docker容器之间的连接,OVS的连接,都是使用evth-pair技术
  • 我们来测试下tomcat01和tomcat02是否可以ping通

    查看网络docker exec -it 容器id ip addr

    [root@cVzhanshi tomcat-diy]# docker exec -it tomcat01 ip addr
    1: lo: mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000

    1. link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    2. inet 127.0.0.1/8 scope host lo
    3. valid_lft forever preferred_lft forever

    82: eth0@if83: mtu 1500 qdisc noqueue state UP group default

    1. link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    2. inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0
    3. valid_lft forever preferred_lft forever

    [root@cVzhanshi tomcat-diy]# docker exec -it tomcat02 ip addr
    1: lo: mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000

    1. link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    2. inet 127.0.0.1/8 scope host lo
    3. valid_lft forever preferred_lft forever

    84: eth0@if85: mtu 1500 qdisc noqueue state UP group default

    1. link/ether 02:42:ac:11:00:03 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    2. inet 172.17.0.3/16 brd 172.17.255.255 scope global eth0
    3. valid_lft forever preferred_lft forever

    让tomcat02 ping tomcat01

    [root@cVzhanshi tomcat-diy]# docker exec -it tomcat02 ping 172.17.0.2
    PING 172.17.0.1 (172.17.0.1) 56(84) bytes of data.
    64 bytes from 172.17.0.1: icmp_seq=1 ttl=64 time=0.108 ms
    64 bytes from 172.17.0.1: icmp_seq=2 ttl=64 time=0.071 ms

    让tomcat01ping tomcat02

    [root@cVzhanshi tomcat-diy]# docker exec -it tomcat01 ping 172.17.0.3
    PING 172.17.0.3 (172.17.0.3) 56(84) bytes of data.
    64 bytes from 172.17.0.3: icmp_seq=1 ttl=64 time=0.115 ms
    64 bytes from 172.17.0.3: icmp_seq=2 ttl=64 time=0.133 ms

    结论:容器和容器之间是可以互相ping通

为什么能容器之间能ping通呢,如图所示:

网络模型图

在这里插入图片描述

由图可知,容器之间的网络连接并不是直接连接的,而是通过docker0路由器转发或广播而连接的

结论:tomcat01和tomcat02公用一个路由器,docker0。

所有的容器不指定网络的情况下,都是docker0路由的,docker会给我们的容器分配一个默认的可用ip。

小结

Docker使用的是Linux的桥接,宿主机是一个Docker容器的网桥 docker0

在这里插入图片描述

Docker中所有网络接口都是虚拟的,虚拟的转发效率高(内网传递文件)

只要容器删除,对应的网桥一对就没了

思考一个场景:我们编写了一个微服务,database url=ip: 项目不重启,数据ip换了,我们希望可以处理这个问题,可以通过名字来进行访问容器?类似于feign

  1. [root@cVzhanshi tomcat-diy]# docker exec -it tomcat02 ping tomca01 # ping不通
  2. ping: tomca01: Name or service not known
  3. # 运行一个tomcat03 --link tomcat02
  4. [root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat03 --link tomcat02 diytomcat:1.0
  5. # 3连接2
  6. # 用tomcat03 ping tomcat02 可以ping通
  7. [root@cVzhanshi tomcat-diy]# docker exec -it tomcat03 ping tomcat02
  8. PING tomcat02 (172.17.0.3) 56(84) bytes of data.
  9. 64 bytes from tomcat02 (172.17.0.3): icmp_seq=1 ttl=64 time=0.127 ms
  10. 64 bytes from tomcat02 (172.17.0.3): icmp_seq=2 ttl=64 time=0.077 ms
  11. # 2连接3
  12. # 用tomcat02 ping tomcat03 ping不通

探究

  • docker inspect tomcat03

在这里插入图片描述

  • 查看tomcat03里面的/etc/hosts发现有tomcat02的配置

在这里插入图片描述

–-link 本质就是在hosts配置中添加映射

现在使用Docker已经不建议使用–link了!建议自定义网络,但是自定义网络不适用docker0

docker0问题:不支持容器名连接访问!

7.3 自定义网络

查看所有网络

  1. [root@cVzhanshi tomcat-diy]# docker network ls
  2. NETWORK ID NAME DRIVER SCOPE
  3. d7f95afc0d22 bridge bridge local
  4. 993e148ff2de host host local
  5. 3b8e97a2184a none null local

网络模式

bridge :桥接 docker(默认,自己创建也是用bridge模式)

none :不配置网络,一般不用

host :和所主机共享网络

container :容器网络连通(用得少!局限很大)

测试

  1. # 我们直接启动的命令 --net bridge,而这个就是我们得docker0
  2. # bridge就是docker0
  3. [root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat01 tomcat
  4. 等价于 => docker run -d -P --name tomcat01 --net bridge tomcat
  5. # docker0,特点:默认,域名不能访问。 --link可以打通连接,但是很麻烦!
  6. # 我们可以 自定义一个网络
  7. [root@cVzhanshi tomcat-diy]# docker network create --driver bridge --subnet 192.168.0.0/16 --gateway 192.168.0.1 mynet

在这里插入图片描述


  1. [root@cVzhanshi tomcat-diy]# docker network inspect mynet

在这里插入图片描述

启动两个tomcat,使用自定义的网络,查看网络情况

  1. # 启动tomcat
  2. [root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat-net-01 --net mynet diytomcat:1.0
  3. 189bf7ca938eefab20c08ec4872bfd44b70f38a3b9224c07fce1a98d7304bafc
  4. [root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat-net-02 --net mynet diytomcat:1.0
  5. 1c5697ad8f7bfcd322ff03d1f6d7fb73d4097691df1c26945a9dbf930f8aa4e3
  6. # 查看网络情况
  7. [root@cVzhanshi tomcat-diy]# docker network inspect mynet

在这里插入图片描述

在自定义的网络下,服务可以通过服务名互相ping通,不用使用–-link

  1. # tomcat01 ping tomcat02
  2. [root@cVzhanshi tomcat-diy]# docker exec tomcat-net-02 ping tomcat-net-01
  3. PING tomcat-net-01 (192.168.0.2) 56(84) bytes of data.
  4. 64 bytes from tomcat-net-01.mynet (192.168.0.2): icmp_seq=1 ttl=64 time=0.103 ms
  5. 64 bytes from tomcat-net-01.mynet (192.168.0.2): icmp_seq=2 ttl=64 time=0.116 ms
  6. # tomcat02 ping tomcat01
  7. [root@cVzhanshi tomcat-diy]# docker exec tomcat-net-01 ping tomcat-net-02
  8. PING tomcat-net-02 (192.168.0.3) 56(84) bytes of data.
  9. 64 bytes from tomcat-net-02.mynet (192.168.0.3): icmp_seq=1 ttl=64 time=0.072 ms
  10. 64 bytes from tomcat-net-02.mynet (192.168.0.3): icmp_seq=2 ttl=64 time=0.076 ms

我们自定义的网络docker帮我们维护好了对应的关系,推荐我们平时这样使用网络!

好处:

redis -不同的集群使用不同的网络,保证集群是安全和健康的

mysql-不同的集群使用不同的网络,保证集群是安全和健康的

在这里插入图片描述

7.4 网络连通

如果一个网络上的容器要ping通另一个网络上的容器,就需要网络连通,但是不是打通两个网络之间,而是连通容器和网络之间的网络

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

  1. # 测试两个不同的网络连通 再启动两个tomcat 使用默认网络,即docker0
  2. [root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat01 diytomcat:1.0
  3. 757cdade627fe71328b40d2aab8a41b22e70f16021d3ee28dbc2ea239e09b2b2
  4. [root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat02 diytomcat:1.0
  5. b0252a99a7f08eedd4f6b2117e77669d522a77479de3a6c6b6b404ea23ea6d7b
  6. # 此时ping不通
  7. [root@cVzhanshi tomcat-diy]# docker exec tomcat-net-01 ping tomcat01
  8. ping: tomcat01: Name or service not known
  9. # 要将tomcat01 连通 tomcat—net-01 ,连通就是将 tomcat01加到 mynet网络
  10. # 一个容器两个ip(tomcat01) 类似于阿里云服务器的公网ip和内网ip
  11. [root@cVzhanshi tomcat-diy]# docker network connect mynet tomcat01
  12. # 查看网络情况

在这里插入图片描述

  1. # 再次尝试去ping 发现能ping通了
  2. [root@cVzhanshi tomcat-diy]# docker exec tomcat-net-01 ping tomcat01
  3. PING tomcat01 (192.168.0.4) 56(84) bytes of data.
  4. 64 bytes from tomcat01.mynet (192.168.0.4): icmp_seq=1 ttl=64 time=0.101 ms
  5. 64 bytes from tomcat01.mynet (192.168.0.4): icmp_seq=2 ttl=64 time=0.065 ms

结论:假设要跨网络操作别人,就需要使用docker network connect 连通

7.5 实战:部署Redis集群

在这里插入图片描述

  • 先创建一个redis的网卡

    创建网卡

    docker network create redis —subnet 172.38.0.0/16

  • 通过脚本创建redis的配置文件

    通过脚本创建六个redis配置

    for port in $(seq 1 6);\
    do \
    mkdir -p /mydata/redis/node-${port}/conf
    touch /mydata/redis/node-${port}/conf/redis.conf
    cat << EOF >> /mydata/redis/node-${port}/conf/redis.conf
    port 6379
    bind 0.0.0.0
    cluster-enabled yes
    cluster-config-file nodes.conf
    cluster-node-timeout 5000
    cluster-announce-ip 172.38.0.1${port}
    cluster-announce-port 6379
    cluster-announce-bus-port 16379
    appendonly yes
    EOF
    done

  • 启动6个redis

    启动一个 修改参数同理启动六个

    docker run -p 6371:6379 -p 16671:16379 —name redis-1 \
    -v /mydata/redis/node-1/data:/data \
    -v /mydata/redis/node-1/conf/redis.conf:/etc/redis/redis.conf \
    -d —net redis —ip 172.38.0.11 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf

    docker run -p 6376:6379 -p 16676:16379 —name redis-6 \
    -v /mydata/redis/node-6/data:/data \
    -v /mydata/redis/node-6/conf/redis.conf:/etc/redis/redis.conf \
    -d —net redis —ip 172.38.0.16 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf

  • 创建集群

    随便进入一个redis

    docker exec -it redis-1 /bin/sh #redis默认没有bash

    创建集群

    redis-cli —cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 —cluster-replicas 1

    创建集群 及其输出过程

    /data # redis-cli —cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 —cluster-replicas 1

    Performing hash slots allocation on 6 nodes…
    Master[0] -> Slots 0 - 5460
    Master[1] -> Slots 5461 - 10922
    Master[2] -> Slots 10923 - 16383
    Adding replica 172.38.0.15:6379 to 172.38.0.11:6379
    Adding replica 172.38.0.16:6379 to 172.38.0.12:6379
    Adding replica 172.38.0.14:6379 to 172.38.0.13:6379
    M: 9dfb0daeca49628851f35a9a7527857dd452fa2c 172.38.0.11:6379
    slots:[0-5460] (5461 slots) master
    M: 3152978e1eee048ceec89915fbb7bee5130ca1e0 172.38.0.12:6379
    slots:[5461-10922] (5462 slots) master
    M: f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b 172.38.0.13:6379
    slots:[10923-16383] (5461 slots) master
    S: feaaee5850ddbcf915d98b5307d5b0e977210839 172.38.0.14:6379
    replicates f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b
    S: ebfbde07030fc1a04abc384440092b9f0153ef82 172.38.0.15:6379
    replicates 9dfb0daeca49628851f35a9a7527857dd452fa2c
    S: fc54f559506207694fd4551cb425714a65c5ddf2 172.38.0.16:6379
    replicates 3152978e1eee048ceec89915fbb7bee5130ca1e0
    Can I set the above configuration? (type ‘yes’ to accept): yes
    Nodes configuration updated
    Assign a different config epoch to each node
    Sending CLUSTER MEET messages to join the cluster
    Waiting for the cluster to join

    Performing Cluster Check (using node 172.38.0.11:6379)
    M: 9dfb0daeca49628851f35a9a7527857dd452fa2c 172.38.0.11:6379
    slots:[0-5460] (5461 slots) master
    1 additional replica(s)
    S: ebfbde07030fc1a04abc384440092b9f0153ef82 172.38.0.15:6379
    slots: (0 slots) slave
    replicates 9dfb0daeca49628851f35a9a7527857dd452fa2c
    M: f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b 172.38.0.13:6379
    slots:[10923-16383] (5461 slots) master
    1 additional replica(s)
    S: feaaee5850ddbcf915d98b5307d5b0e977210839 172.38.0.14:6379
    slots: (0 slots) slave
    replicates f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b
    M: 3152978e1eee048ceec89915fbb7bee5130ca1e0 172.38.0.12:6379
    slots:[5461-10922] (5462 slots) master
    1 additional replica(s)
    S: fc54f559506207694fd4551cb425714a65c5ddf2 172.38.0.16:6379
    slots: (0 slots) slave
    replicates 3152978e1eee048ceec89915fbb7bee5130ca1e0
    [OK] All nodes agree about slots configuration.
    Check for open slots…
    Check slots coverage…
    [OK] All 16384 slots covered.

    /data # redis-cli -c

在这里插入图片描述

测试高可用:set一个值,处理的主机down掉,在查询值,看看是否存在。按理说从机会选举成主机

  1. 127.0.0.1:6379> set a c
  2. -> Redirected to slot [15495] located at 172.38.0.13:6379
  3. OK
  4. # 由此可见redis-3处理了这个命令 down掉redis-3
  5. [root@cVzhanshi ~]# docker stop 1ce5a25cc688
  6. # 继续查询key为a的值
  7. 172.38.0.13:6379> get a
  8. Error: Operation timed out # 发现redis-3 down了
  9. /data # redis-cli -c
  10. 127.0.0.1:6379> get a
  11. -> Redirected to slot [15495] located at 172.38.0.14:6379 # redis-4选举成为主机,处理命令
  12. "c"
  13. # 查看集群详情

在这里插入图片描述

集群搭建完毕

⑧ Spring Boot微服务打包Docker镜像

1、构建SpringBoot项目

2、打包运行

3、编写dockerfile

  1. FROM java:8
  2. COPY *.jar /app.jar
  3. CMD ["--server.port=8080"]
  4. EXPOSE 8080
  5. ENTRYPOINT ["java","-jar","app.jar"]

4、构建镜像

  1. # 1.复制jar和DockerFIle到服务器
  2. # 2.构建镜像
  3. [root@cVzhanshi idea]# docker build -t cvzhanhsi-springboot-web:1.9 .

5、发布运行

  1. # 运行
  2. [root@cVzhanshi idea]# docker run -d -P --name cvzhanshi-springboot-web cvzhanhsi-springboot-web:1.9
  3. 39cb47d71dc532d29c02e107e35560d0bada036e95e6cc9a5781357d1db51dae
  4. # 访问
  5. [root@cVzhanshi idea]# curl localhost:49163
  6. {"timestamp":"2021-09-07T06:57:10.455+00:00","status":404,"error":"Not Found","path":"/"}
  7. [root@cVzhanshi idea]# curl localhost:49163/hello
  8. hello cvzhanshi

外网访问

在这里插入图片描述

发表评论

表情:
评论列表 (有 0 条评论,111人围观)

还没有评论,来说两句吧...

相关阅读

    相关 服务Docker打包

    > 现在的微服务时代,你的代码没个微服务、分布式人家都会觉得低端,当然!对于我们开发人员来说,掌握这些技术意味着涨薪。 我们项目中用到了多个微服务,我们上一节课程打包用的是手

    相关 Docker打包服务

    关于Docker,知其然还要知其所以然,这里安利一篇很不错的文章。        [10张图带你深入理解Docker容器和镜像][10_Docker] 阅读完以上文章,

    相关 Docker 打包镜像

    比如运行tomcat,删除tomcat中的webapp/docs,这时点击tomcat的运行界面链接就是404,是一个没有文档说明的tomcat,将这个tomcat打包为一个镜