转载

docker的四种网络方式

声明:

本博客欢迎转发,但请保留原作者信息!

博客地址:http://openstack.wiaapp.cn

内容系本人学习、研究和总结,如有雷同,实属荣幸!

作者信息:寻觅神迹 华为工程师 专注云计算与美食 微博 @寻觅神迹

bridge方式(默认)

Host IP为186.100.8.117, 容器网络为172.17.0.0/16

下边我们看下docker所提供的四种网络:

创建容器:(由于是默认设置,这里没指定网络–net=”bridge”。另外可以看到容器内创建了eth0)

[root@localhost ~]# docker run -i -t mysql:latest /bin/bash root@e2187aa35875:/usr/local/mysql# ip addr 1: lo:  mtu 65536 qdisc noqueue state UNKNOWN  link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00  inet 127.0.0.1/8 scope host lo     valid_lft forever preferred_lft forever  inet6 ::1/128 scope host     valid_lft forever preferred_lft forever 75: eth0:  mtu 1500 qdisc pfifo_fast state UP qlen 1000  link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff  inet 172.17.0.2/16 scope global eth0     valid_lft forever preferred_lft forever  inet6 fe80::42:acff:fe11:2/64 scope link     valid_lft forever preferred_lft forever 

容器与Host网络是连通的:

root@e2187aa35875:/usr/local/mysql# ping 186.100.8.117 PING 186.100.8.117 (186.100.8.117): 48 data bytes 56 bytes from 186.100.8.117: icmp_seq=0 ttl=64 time=0.124 ms

eth0实际上是veth pair的一端,另一端(vethb689485)连在docker0网桥上:

[root@localhost ~]# ethtool -S vethb689485 NIC statistics:      peer_ifindex: 75 [root@localhost ~]# brctl show bridge name     bridge id               STP enabled     interfaces docker0         8000.56847afe9799       no              vethb689485

通过Iptables实现容器内访问外部网络:

[root@localhost ~]# iptables-save |grep 172.17.0.* -A POSTROUTING -s 172.17.0.0/16 ! -o docker0 -j MASQUERADE -A FORWARD -d 172.17.0.2/32 ! -i docker0 -o docker0 -p tcp -m tcp --dport 5000 -j ACCEPT

none方式

指定方法: –net=”none”可以看到,这样创建出来的容器完全没有网络:

[root@localhost ~]# docker run -i -t --net="none"  mysql:latest /bin/bash root@061364719a22:/usr/local/mysql# ip addr 1: lo:  mtu 65536 qdisc noqueue state UNKNOWN   link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00   inet 127.0.0.1/8 scope host lo    valid_lft forever preferred_lft forever   inet6 ::1/128 scope host    valid_lft forever preferred_lft forever root@061364719a22:/usr/local/mysql# ping 186.100.8.117 PING 186.100.8.117 (186.100.8.117): 48 data bytes ping: sending packet: Network is unreachable 

那这种方式,有什么用途呢?

实际上nova-docker用的就是这种方式,这种方式将网络创建的责任完全交给用户。

可以实现更加灵活复杂的网络。

另外这种容器可以可以通过link容器实现通信。(后边详细说)

host方式

指定方法:–net=”host”

这种创建出来的容器,可以看到host上所有的网络设备。

容器中,对这些设备(比如DUBS)有全部的访问权限。因此docker提示我们,这种方式是不安全的。

如果在隔离良好的环境中(比如租户的虚拟机中)使用这种方式,问题不大。

container复用方式

指定方法: –net=”container:name or id”如下例子可以看出来,两者的网络完全相同。

[root@localhost ~]# docker run -i -t mysql:latest /bin/bash root@02aac28b9234:/usr/local/mysql# ip addr 1: lo:  mtu 65536 qdisc noqueue state UNKNOWN   link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00   inet 127.0.0.1/8 scope host lo    valid_lft forever preferred_lft forever   inet6 ::1/128 scope host    valid_lft forever preferred_lft forever 77: eth0:  mtu 1500 qdisc pfifo_fast state UP qlen 1000   link/ether 02:42:ac:11:00:03 brd ff:ff:ff:ff:ff:ff   inet 172.17.0.3/16 scope global eth0    valid_lft forever preferred_lft forever   inet6 fe80::42:acff:fe11:3/64 scope link    valid_lft forever preferred_lft forever [root@localhost ~]# docker run -i -t --net="container:02aac28b9234"  mysql:latest /bin/bash root@02aac28b9234:/usr/local/mysql# ip addr 1: lo:  mtu 65536 qdisc noqueue state UNKNOWN   link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00   inet 127.0.0.1/8 scope host lo    valid_lft forever preferred_lft forever   inet6 ::1/128 scope host    valid_lft forever preferred_lft forever 77: eth0:  mtu 1500 qdisc pfifo_fast state UP qlen 1000   link/ether 02:42:ac:11:00:03 brd ff:ff:ff:ff:ff:ff   inet 172.17.0.3/16 scope global eth0    valid_lft forever preferred_lft forever   inet6 fe80::42:acff:fe11:3/64 scope link    valid_lft forever preferred_lft forever 

举例(openstack nova-docker中的网络实现方式)

openstack的nova-docker插件可以向管理虚拟机一样管理容器。容器网络的创建方式:首先创建–net=”none”的容器,然后使用如下过程配置容器网络。(以OVS为例,也可以使用linux bridge)

#创建veth设备 ip link add name veth00 type veth peer name veth01 #将veth设备一端接入ovs网桥br-int中 ovs-vsctl -- --if-exists del-port veth00 -- add-port br-int veth00 -- set Interface veth00 external-ids:iface-id=iface_id external-ids:iface-status=active external-ids:attached-mac=00:ff:00:aa:bb:cc external-ids:vm-uuid=instance_id #启动ovs的新加端口 ip link set veth00 up   #配置容器的网络namespace mkdir -p /var/run/netns ln -sf /proc/container_pid/ns/net /var/run/netns/container_id  #将veth另一端加入容器namespace ip link set veth01 netns container_id #配置容器上该网络设备的mac,ip,gateway ip netns exec container_id ip link set veth01 address mac_address ip netns exec container_id ifconfig veth01 ip  ip netns exec container_id ip route replace default via gateway dev veth01

至此,容器与host上的虚拟网络连通。之后br-int与br-ex/br-tun连通,最终实现与业务网络的连通。

参考:

http://segmentfault.com/blog/yexiaobai/1190000000669312

正文到此结束
Loading...