Docker基础篇 - (六)Docker 网络&Spring Boot微服务打包Docker镜像
⑦ Docker 网络
7.1 理解Docker0
清空下前面的docker 镜像、容器
# 删除全部容器
[root@cVzhanshi tomcat-diy]# docker rm -f $(docker ps -aq)
# 删除全部镜像
[root@cVzhanshi tomcat-diy]# docker rmi -f $(docker images -aq)
- 用ip addr查看Linux系统中的网卡
三个网络
问题: docker 是如果处理容器网络访问的?
# 测试,运行一个tomcat
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat01 tomcat
# 查看容器内部网络地址,发现容器启动的时候会得到一个 eth0@if83 ip地址,docker分配
[root@cVzhanshi tomcat-diy]# docker exec -it 3e898fccd455 ip addr
# 思考? linux能不能ping通容器内部! 可以 容器内部可以ping通外界吗? 都可以!
# Linux ping容器内部
[root@cVzhanshi tomcat-diy]# ping 172.17.0.2
PING 172.17.0.2 (172.17.0.2) 56(84) bytes of data.
64 bytes from 172.17.0.2: icmp_seq=1 ttl=64 time=0.110 ms
64 bytes from 172.17.0.2: icmp_seq=2 ttl=64 time=0.084 ms
# 容器内部 ping Linux系统外界
[root@3e898fccd455 local]# ping 172.17.0.1
PING 172.17.0.1 (172.17.0.1) 56(84) bytes of data.
64 bytes from 172.17.0.1: icmp_seq=1 ttl=64 time=0.103 ms
64 bytes from 172.17.0.1: icmp_seq=2 ttl=64 time=0.061 ms
原理:
我们每启动一个docker容器,docker就会给docker容器分配一个ip,我们只要按照了docker,就会有一个docker0桥接模式,使用的技术是veth-pair技术!
veth-pair技术:https://www.cnblogs.com/bakari/p/10613710.html
- 再启动一个容器测试,发现又多了一对网络
# 我们发现这个容器带来网卡,都是一对对的
# veth-pair 就是一对的虚拟设备接口,他们都是成对出现的,一端连着协议,一端彼此相连
# 正因为有这个特性 veth-pair 充当一个桥梁,连接各种虚拟网络设备的
# OpenStac,Docker容器之间的连接,OVS的连接,都是使用evth-pair技术
我们来测试下tomcat01和tomcat02是否可以ping通
查看网络docker exec -it 容器id ip addr
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat01 ip addr
1: lo:mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
82: eth0@if83:
mtu 1500 qdisc noqueue state UP group default link/ether 02
ac:11:00:02 brd ff
ff
ff:ff link-netnsid 0
inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0
valid_lft forever preferred_lft forever
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat02 ip addr
1: lo:mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
84: eth0@if85:
mtu 1500 qdisc noqueue state UP group default link/ether 02
ac:11:00:03 brd ff
ff
ff:ff link-netnsid 0
inet 172.17.0.3/16 brd 172.17.255.255 scope global eth0
valid_lft forever preferred_lft forever
让tomcat02 ping tomcat01
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat02 ping 172.17.0.2
PING 172.17.0.1 (172.17.0.1) 56(84) bytes of data.
64 bytes from 172.17.0.1: icmp_seq=1 ttl=64 time=0.108 ms
64 bytes from 172.17.0.1: icmp_seq=2 ttl=64 time=0.071 ms让tomcat01ping tomcat02
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat01 ping 172.17.0.3
PING 172.17.0.3 (172.17.0.3) 56(84) bytes of data.
64 bytes from 172.17.0.3: icmp_seq=1 ttl=64 time=0.115 ms
64 bytes from 172.17.0.3: icmp_seq=2 ttl=64 time=0.133 ms结论:容器和容器之间是可以互相ping通
为什么能容器之间能ping通呢,如图所示:
网络模型图
由图可知,容器之间的网络连接并不是直接连接的,而是通过docker0路由器转发或广播而连接的
结论:tomcat01和tomcat02公用一个路由器,docker0。
所有的容器不指定网络的情况下,都是docker0路由的,docker会给我们的容器分配一个默认的可用ip。
小结
Docker使用的是Linux的桥接,宿主机是一个Docker容器的网桥 docker0
Docker中所有网络接口都是虚拟的,虚拟的转发效率高(内网传递文件)
只要容器删除,对应的网桥一对就没了!
7.2 —link
思考一个场景:我们编写了一个微服务,database url=ip: 项目不重启,数据ip换了,我们希望可以处理这个问题,可以通过名字来进行访问容器?类似于feign
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat02 ping tomca01 # ping不通
ping: tomca01: Name or service not known
# 运行一个tomcat03 --link tomcat02
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat03 --link tomcat02 diytomcat:1.0
# 3连接2
# 用tomcat03 ping tomcat02 可以ping通
[root@cVzhanshi tomcat-diy]# docker exec -it tomcat03 ping tomcat02
PING tomcat02 (172.17.0.3) 56(84) bytes of data.
64 bytes from tomcat02 (172.17.0.3): icmp_seq=1 ttl=64 time=0.127 ms
64 bytes from tomcat02 (172.17.0.3): icmp_seq=2 ttl=64 time=0.077 ms
# 2连接3
# 用tomcat02 ping tomcat03 ping不通
探究
- docker inspect tomcat03
- 查看tomcat03里面的/etc/hosts发现有tomcat02的配置
–-link 本质就是在hosts配置中添加映射
现在使用Docker已经不建议使用–link了!建议自定义网络,但是自定义网络不适用docker0
docker0问题:不支持容器名连接访问!
7.3 自定义网络
查看所有网络
[root@cVzhanshi tomcat-diy]# docker network ls
NETWORK ID NAME DRIVER SCOPE
d7f95afc0d22 bridge bridge local
993e148ff2de host host local
3b8e97a2184a none null local
网络模式
bridge :桥接 docker(默认,自己创建也是用bridge模式)
none :不配置网络,一般不用
host :和所主机共享网络
container :容器网络连通(用得少!局限很大)
测试
# 我们直接启动的命令 --net bridge,而这个就是我们得docker0
# bridge就是docker0
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat01 tomcat
等价于 => docker run -d -P --name tomcat01 --net bridge tomcat
# docker0,特点:默认,域名不能访问。 --link可以打通连接,但是很麻烦!
# 我们可以 自定义一个网络
[root@cVzhanshi tomcat-diy]# docker network create --driver bridge --subnet 192.168.0.0/16 --gateway 192.168.0.1 mynet
[root@cVzhanshi tomcat-diy]# docker network inspect mynet
启动两个tomcat,使用自定义的网络,查看网络情况
# 启动tomcat
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat-net-01 --net mynet diytomcat:1.0
189bf7ca938eefab20c08ec4872bfd44b70f38a3b9224c07fce1a98d7304bafc
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat-net-02 --net mynet diytomcat:1.0
1c5697ad8f7bfcd322ff03d1f6d7fb73d4097691df1c26945a9dbf930f8aa4e3
# 查看网络情况
[root@cVzhanshi tomcat-diy]# docker network inspect mynet
在自定义的网络下,服务可以通过服务名互相ping通,不用使用–-link
# tomcat01 ping tomcat02
[root@cVzhanshi tomcat-diy]# docker exec tomcat-net-02 ping tomcat-net-01
PING tomcat-net-01 (192.168.0.2) 56(84) bytes of data.
64 bytes from tomcat-net-01.mynet (192.168.0.2): icmp_seq=1 ttl=64 time=0.103 ms
64 bytes from tomcat-net-01.mynet (192.168.0.2): icmp_seq=2 ttl=64 time=0.116 ms
# tomcat02 ping tomcat01
[root@cVzhanshi tomcat-diy]# docker exec tomcat-net-01 ping tomcat-net-02
PING tomcat-net-02 (192.168.0.3) 56(84) bytes of data.
64 bytes from tomcat-net-02.mynet (192.168.0.3): icmp_seq=1 ttl=64 time=0.072 ms
64 bytes from tomcat-net-02.mynet (192.168.0.3): icmp_seq=2 ttl=64 time=0.076 ms
我们自定义的网络docker帮我们维护好了对应的关系,推荐我们平时这样使用网络!
好处:
redis -不同的集群使用不同的网络,保证集群是安全和健康的
mysql-不同的集群使用不同的网络,保证集群是安全和健康的
7.4 网络连通
如果一个网络上的容器要ping通另一个网络上的容器,就需要网络连通,但是不是打通两个网络之间,而是连通容器和网络之间的网络
# 测试两个不同的网络连通 再启动两个tomcat 使用默认网络,即docker0
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat01 diytomcat:1.0
757cdade627fe71328b40d2aab8a41b22e70f16021d3ee28dbc2ea239e09b2b2
[root@cVzhanshi tomcat-diy]# docker run -d -P --name tomcat02 diytomcat:1.0
b0252a99a7f08eedd4f6b2117e77669d522a77479de3a6c6b6b404ea23ea6d7b
# 此时ping不通
[root@cVzhanshi tomcat-diy]# docker exec tomcat-net-01 ping tomcat01
ping: tomcat01: Name or service not known
# 要将tomcat01 连通 tomcat—net-01 ,连通就是将 tomcat01加到 mynet网络
# 一个容器两个ip(tomcat01) 类似于阿里云服务器的公网ip和内网ip
[root@cVzhanshi tomcat-diy]# docker network connect mynet tomcat01
# 查看网络情况
# 再次尝试去ping 发现能ping通了
[root@cVzhanshi tomcat-diy]# docker exec tomcat-net-01 ping tomcat01
PING tomcat01 (192.168.0.4) 56(84) bytes of data.
64 bytes from tomcat01.mynet (192.168.0.4): icmp_seq=1 ttl=64 time=0.101 ms
64 bytes from tomcat01.mynet (192.168.0.4): icmp_seq=2 ttl=64 time=0.065 ms
结论:假设要跨网络操作别人,就需要使用docker network connect 连通
7.5 实战:部署Redis集群
先创建一个redis的网卡
创建网卡
docker network create redis —subnet 172.38.0.0/16
通过脚本创建redis的配置文件
通过脚本创建六个redis配置
for port in $(seq 1 6);\
do \
mkdir -p /mydata/redis/node-${port}/conf
touch /mydata/redis/node-${port}/conf/redis.conf
cat << EOF >> /mydata/redis/node-${port}/conf/redis.conf
port 6379
bind 0.0.0.0
cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
cluster-announce-ip 172.38.0.1${port}
cluster-announce-port 6379
cluster-announce-bus-port 16379
appendonly yes
EOF
done启动6个redis
启动一个 修改参数同理启动六个
docker run -p 6371:6379 -p 16671:16379 —name redis-1 \
-v /mydata/redis/node-1/data:/data \
-v /mydata/redis/node-1/conf/redis.conf:/etc/redis/redis.conf \
-d —net redis —ip 172.38.0.11 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.confdocker run -p 6376:6379 -p 16676:16379 —name redis-6 \
-v /mydata/redis/node-6/data:/data \
-v /mydata/redis/node-6/conf/redis.conf:/etc/redis/redis.conf \
-d —net redis —ip 172.38.0.16 redis:5.0.9-alpine3.11 redis-server /etc/redis/redis.conf创建集群
随便进入一个redis
docker exec -it redis-1 /bin/sh #redis默认没有bash
创建集群
redis-cli —cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 —cluster-replicas 1
创建集群 及其输出过程
/data # redis-cli —cluster create 172.38.0.11:6379 172.38.0.12:6379 172.38.0.13:6379 172.38.0.14:6379 172.38.0.15:6379 172.38.0.16:6379 —cluster-replicas 1
Performing hash slots allocation on 6 nodes…
Master[0] -> Slots 0 - 5460
Master[1] -> Slots 5461 - 10922
Master[2] -> Slots 10923 - 16383
Adding replica 172.38.0.15:6379 to 172.38.0.11:6379
Adding replica 172.38.0.16:6379 to 172.38.0.12:6379
Adding replica 172.38.0.14:6379 to 172.38.0.13:6379
M: 9dfb0daeca49628851f35a9a7527857dd452fa2c 172.38.0.11:6379
slots:[0-5460] (5461 slots) master
M: 3152978e1eee048ceec89915fbb7bee5130ca1e0 172.38.0.12:6379
slots:[5461-10922] (5462 slots) master
M: f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b 172.38.0.13:6379
slots:[10923-16383] (5461 slots) master
S: feaaee5850ddbcf915d98b5307d5b0e977210839 172.38.0.14:6379
replicates f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b
S: ebfbde07030fc1a04abc384440092b9f0153ef82 172.38.0.15:6379
replicates 9dfb0daeca49628851f35a9a7527857dd452fa2c
S: fc54f559506207694fd4551cb425714a65c5ddf2 172.38.0.16:6379
replicates 3152978e1eee048ceec89915fbb7bee5130ca1e0
Can I set the above configuration? (type ‘yes’ to accept): yes
Nodes configuration updated
Assign a different config epoch to each node
Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join
…
Performing Cluster Check (using node 172.38.0.11:6379)
M: 9dfb0daeca49628851f35a9a7527857dd452fa2c 172.38.0.11:6379
slots:[0-5460] (5461 slots) master
1 additional replica(s)
S: ebfbde07030fc1a04abc384440092b9f0153ef82 172.38.0.15:6379
slots: (0 slots) slave
replicates 9dfb0daeca49628851f35a9a7527857dd452fa2c
M: f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b 172.38.0.13:6379
slots:[10923-16383] (5461 slots) master
1 additional replica(s)
S: feaaee5850ddbcf915d98b5307d5b0e977210839 172.38.0.14:6379
slots: (0 slots) slave
replicates f6ff004c7db9ad8e5e70798ba5c1fada7b6ace7b
M: 3152978e1eee048ceec89915fbb7bee5130ca1e0 172.38.0.12:6379
slots:[5461-10922] (5462 slots) master
1 additional replica(s)
S: fc54f559506207694fd4551cb425714a65c5ddf2 172.38.0.16:6379
slots: (0 slots) slave
replicates 3152978e1eee048ceec89915fbb7bee5130ca1e0
[OK] All nodes agree about slots configuration.
Check for open slots…
Check slots coverage…
[OK] All 16384 slots covered./data # redis-cli -c
测试高可用:set一个值,处理的主机down掉,在查询值,看看是否存在。按理说从机会选举成主机
127.0.0.1:6379> set a c
-> Redirected to slot [15495] located at 172.38.0.13:6379
OK
# 由此可见redis-3处理了这个命令 down掉redis-3
[root@cVzhanshi ~]# docker stop 1ce5a25cc688
# 继续查询key为a的值
172.38.0.13:6379> get a
Error: Operation timed out # 发现redis-3 down了
/data # redis-cli -c
127.0.0.1:6379> get a
-> Redirected to slot [15495] located at 172.38.0.14:6379 # redis-4选举成为主机,处理命令
"c"
# 查看集群详情
集群搭建完毕
⑧ Spring Boot微服务打包Docker镜像
1、构建SpringBoot项目
2、打包运行
3、编写dockerfile
FROM java:8
COPY *.jar /app.jar
CMD ["--server.port=8080"]
EXPOSE 8080
ENTRYPOINT ["java","-jar","app.jar"]
4、构建镜像
# 1.复制jar和DockerFIle到服务器
# 2.构建镜像
[root@cVzhanshi idea]# docker build -t cvzhanhsi-springboot-web:1.9 .
5、发布运行
# 运行
[root@cVzhanshi idea]# docker run -d -P --name cvzhanshi-springboot-web cvzhanhsi-springboot-web:1.9
39cb47d71dc532d29c02e107e35560d0bada036e95e6cc9a5781357d1db51dae
# 访问
[root@cVzhanshi idea]# curl localhost:49163
{"timestamp":"2021-09-07T06:57:10.455+00:00","status":404,"error":"Not Found","path":"/"}
[root@cVzhanshi idea]# curl localhost:49163/hello
hello cvzhanshi
外网访问
还没有评论,来说两句吧...