本文介绍了如何使用Open vSwitch为Docker 1.9.0及以后版本提供网络支持。操作前请先确认你已经按照 [INSTALL.md] 编译,或者通过包管理器安装了Open vSwitch。关于如何安装Docker,请参考www.docker.com上提供的介绍。
Docker从1.9.0版本之后提供了跨主机的网络支持。通过将Docker和Open vSwitch整合,则可以利用Open vSwitch virtual network (OVN)进行互联互通。
要想使用OVN实现Docker的跨主机网络,Docker在启动时必须指定分布式键值存储服务,比如你打算使用Consul作为键值存储,启动Docker daemon时请使用如下参数:
dockerdaemon --cluster-store=consul://127.0.0.1:8500 / --cluster-advertise=$HOST_IP:0
其中$HOST_IP是你主机本地IP。
OVN为容器提供了虚拟化的网络,目前OVN和Docker的集成,有两种方式:即”underlay”模式和”overlay”模式。
在”underlay”模式下,OVN依赖于OpenStack为容器提供网络。此模式下,使用者可以让虚拟机中的容器、独立虚拟机(不运行任何容器)、物理机都连接到相同的逻辑网络下。这是种多租户、多主机的解决方案。
在”overlay”模式下,OVN可以用来创建跨主机的容器间网络。此模式是单租户(当然在不需要额外的网络隔离的情况下可以拓展成多租户)、多主机的解决方案。此模式不依赖OpenStack。
无论哪种模式,想要让容器使用OVN都必须在所有容器宿主机上安装Open vSwitch。
使用OVN的”overlay”模式要求的Open vSwitch最小版本是2.5。
在OVN的架构中,需要有一个中心节点用来存储网络定义。在需要部署的机器中选择一台作为中心节点,IP地址是$CENTRAL_IP。
通过以下命令启动ovsdb-server,监听在TCP的6640端口:
ovs-appctl -t ovsdb-serverovsdb-server/add-remoteptcp:6640
启动ovn-northd守候进程,这个进程用来将Docker存储在OVN_Northbound中的网络定义同步到OVN_Southbound中。
/usr/share/openvswitch/scripts/ovn-ctlstart_northd
以下过程在每个你需要启动容器的机器上仅执行一次(除非OVS数据库清空后,任何其他清空执行多次都会带来问题。)
下面的命令中,$LOCAL_IP指宿主机可以被访问的IP地址,OVS将通过这个IP与其他宿主机通讯。$ENCAP_TYPE指通道类型。目前可选项是”geneve” 和 “stt”。(注意你的宿主机内核必须支持你选择的$ENCAP_TYPE类型。这两种类型都默认包含在了Open vSwitch的内核模块中。如果你的Open vSwitch内核模块来自于上游Linux发行版,那么geneve最低支持的内核版本是3.18。发行版中的内核模块不支持stt。你可以通过lsmod | grep $ENCAP_TYPE来确认是否支持相应的模式。)
ovs-vsctlsetOpen_vSwitch . external_ids:ovn-remote="tcp:$CENTRAL_IP:6640" / external_ids:ovn-encap-ip=$LOCAL_IP external_ids:ovn-encap-type="$ENCAP_TYPE"
最后,启动ovn-controller,记得将启动命令添加到系统启动脚本中。
/usr/share/openvswitch/scripts/ovn-ctlstart_controller
默认情况下,Docker使用Linux bridge作为网络驱动,当然了它支持其他外部驱动。为了让Docker使用Open vSwitch,你需要启动Open vSwitch驱动。
Open vSwitch驱动使用了Python的flask模块来监听Docker的网络API调用。所以如果你的主机还没有安装flask,使用以下命令安装:
easy_install -U pip pipinstallFlask
在所有准备运行Docker容器的机器上都要执行以下命令以启动驱动:
ovn-docker-overlay-driver --detach
Docker内建的网络和OVN的网络概念非常一致,请查阅Docker的文档获取更全面的命令指南,这里只是个简单的例子。
使用以下命令创建一个名为foo,子网为192.168.1.0/24的逻辑交换机。
NID=`dockernetworkcreate -d openvswitch --subnet=192.168.1.0/24 foo`
dockernetworkls
你也可以在OVN的northbound数据库中查看逻辑交换机,通过以下命令:
ovn-nbctl --db=tcp:$CENTRAL_IP:6640 lswitch-list
例如将一个busybox容器连接到逻辑网络foo上,只需要执行:
dockerrun -itd --net=foo --name=busyboxbusybox
目前Docker尚未提供命令来列出交换机端口,所以你可以通过直接查询OVN数据库来查看:
ovn-nbctl --db=tcp:$CENTRAL_IP:6640 lport-list $NID
dockernetworkcreate -d openvswitch --subnet=192.168.2.0/24 bar dockernetworkconnectbarbusybox
你可以通过如下命令断开容器和逻辑交换机的连接
dockernetworkdisconnectbarbusybox
dockernetworkrm bar
此模式需要预先安装运行OpenStack。
OpenStack租户先要在他们的网络内创建单或多网络端口的虚拟机。租户需要先取得想要作为宿主机的端口ID(port-id)。可以通过以下命令取得虚拟机关联的网络端口ID:
novalist
然后执行:
neutronport-list --device_id=$id
在虚拟机中,下载包含租户信息的OpenStack RC文件(下文称之为’openrc.sh’)。编辑并添加之前获得的端口ID信息到这个文件中,例如:
#!/bin/bash exportOS_AUTH_URL=http://10.33.75.122:5000/v2.0 exportOS_TENANT_ID=fab106b215d943c3bad519492278443d exportOS_TENANT_NAME="demo" exportOS_USERNAME="demo" exportOS_VIF_ID=e798c371-85f4-4f2d-ad65-d09dd1d3c1c9
如果你的虚拟机只有一个网卡(如’eth0’),你创建一个名为breth0的网桥,然后将eth0网卡上的IP和路由信息全部转移到网桥上。(如果有多块网卡,你需要在想要发送网络流量的那块上进行这个操作。)
如果你使用DHCP服务获取IP地址,首先需要停掉在物理网卡(如eth0)上监听的DHCP客户端,然后在新创建的网桥(如breth0)上启动监听。
根据你的虚拟机的不同,你需要把以上操作设置到启动脚本中。
例如你的虚拟机运行Debian/Ubuntu,可以参考 [openvswitch-switch.README.Debian] 。如果虚拟机运行RHEL系统,参考 [README.RHEL] 。
Open vSwitch驱动使用了Python的flask模块来监听Docker的网络API调用,也使用了OpenStack的python-neutronclient库。如果你还没有安装他们,请先安装:
easy_install -U pip pipinstallpython-neutronclient pipinstallFlask
执行openrc文件:
. ./openrc.sh
启动网络驱动,并在询问时提供你的OpenStack租户密码:
ovn-docker-underlay-driver --bridgebreth0 --detach
接下来,你可以使用上文在Overlay模式中介绍的命令来使用Docker了。
供多关于OVN架构的细节,请通过man ovn-architecture参考。