如何让ubuntu开机自动运行脚本ovs

如何让ubuntu开机自动运行脚本ovs,第1张

1 /etc/rclocal 文件添加 语句

可以在这文件里添加需要运行的脚本文件代码,代码要放在 exit 前面

可以用vi来进行编辑

vi /etc/rclocal#!/bin/bash
ping 2 /etc/initd 

这个目录存放的是一些脚本,一般是linux以rpm包安装时设定的一些服务的启动脚本。系统在安装时装了好多rpm包,这里面就有很多对应的脚本。执行这些脚本可以用来启动,停止,重启这些服务。举个例子来说,如果你要重新启动 sendmail 的话,而且你的 sendmail 是以 rpm 来安装的,那么下达 /etc/rcd/initd/sendmail restart 就可以直接启动 sendmail 啰!
前面说到,/etc/rcd/initd这个目录下的脚本就类似与windows中的注册表,在系统启动的时候执行。程序运行到这里(init进程读取了运行级别), 是该运行initd里的脚本了,但是并不是直接运行,而是有选择的因为系统并不需要启动所有的服务。
那么,系统是如何选择哪些需要启动哪些不要呢?这时刚才说的运行级别就起作用了。在决定了系统启动的run level之后,/etc/rcd/rc这个脚本先执行。在RH9和FC7的源码中它都是一上来就check_runlevel()(虽然实现的代码不一样,也大同小异),知道了运行级别之后,对于每一个运行级别,在rcd下都有一个子目录分别是rc0d,rc1d … rc6d。每个目录下都是到initd目录的一部分脚本一些链接。每个级别要执行哪些服务就在相对应的目录下,比如级别5要启动的服务就都放在rc5d下,但是放在这个rc5d下的都是一些链接文件,链接到initd中相对应的文件,真正干活到initd里的脚本。

linux /etc/rcd/目录的详解

rcd的内容如下:
initd/ :各种服务器和程序的二进制文件存放目录。
rcxd/: 各个启动级别的执行程序连接目录。里头的东西都是指向initd/的一些软连接。具体的后边叙述。
还有三个脚本:rcsysinit, rc, rclocal

作者:int32bit
来源:知乎
云计算是一种服务模式,这种模式并不是计算机行业所特有,也不是现代所特有,而是一种已经存在很久的服务模式。其思路就是把各种资源整合起来,然后租给有需要的用户。拿图书馆做比较,大家都很熟悉了,图书馆收集了很多书,如果你想看书,只需要到图书馆根据自己的需求去借就好了,图书馆会根据你借的数量以及时间收费,你看完了就还给图书馆,书重新放回到原来的书架,其他用户可以继续借,重复利用。
肯定有人会想到把这种模式移植到传统IT行业,只是把租的对象由图书变为服务器资源罢了,因此云计算诞生了。为什么称为云计算,因为服务器的功能就是提供计算能力,把服务器租给你相当于卖给你服务器租赁期间的计算能力,因此称为云计算。
怎么运作,很简单,你需要多少CPU、多少硬盘,自己去机房搬,云服务提供商会根据你的数量按天计费,当然你也可以包月包年。你如果愿意出更多的钱,也可以提供送货上门服务。服务器硬件给你了,只要在租赁期间,随便你处置,就和自己买的服务器一样,服务器搬到自己的机房后,发现自己人手不足,你要一个一个安装 *** 作系统,招一个人专门做这个成本也高。于是云服务商提供了其它增值服务,比如上门给你安装 *** 作系统、上门组建网络,甚至给你提供安装数据库、大数据Hadoop/Spark集群搭建服务等,把这种麻烦事交给别人了,显然大大节省了自己的运维成本。
云计算的好处也出来了,你为什么要租服务器,而不是自己买,因为你可能只是想用一段时间,相对于你自己买服务器,成本太高了,租用更方便。另外,你自己买需要根据业务评估买多少,可能买回来发现不够用,于是重新采购,流程麻烦,买的太多了,又存在资源浪费。而租用就更d性了,需要多少,租用多少,不需要了还给云服务商就好了。私有云同样,只不过是企业内部结算罢了。以上是IaaS的运营模式。你有可能有这种情况,你写了一个Web项目并打好了war包,但自己手头没有服务器来跑,你可以把你的war包交给云服务提供商,他们负责给你运行,你不用租整个服务器,也不用搭建运行环境,打好war包拷给他们就好,他们帮你部署运行。这就是我们说的PaaS服务。更高级的,你手头有很多照片,你想把照片中的人物提取出来,但你自己不会写代码实现,你可以把照片发给云服务商,他们通过自己的脸部识别技术处理后把结果发给你,这就类似于SaaS。
以上就是云计算的非权威解读,它更确切地说云计算不是指特定的某种技术,而是一种服务模式,一种交付方式。问题来了,以上需要把服务器搬来搬去太麻烦了,而且用户还需要有自己的机房来放租来的服务器。有没有某种技术能够不需要移动服务器,也能解决前面提到的问题,把CPU、内存、磁盘等资源打包租给用户。相信都知道答案了,虚拟化技术就可以完美解决这个问题,而虚拟机是虚拟化实现之一,但绝不是唯一,还有可能是容器,甚至是真正的物理机(裸机)。提供虚拟机的hypervisor也不是只有vmware,还有比如kvm/qemu、xen等。除了虚拟机外,还有许多其它虚拟化技术,比如ovs虚拟网络等。通过虚拟技术,你再不用搬服务器,而完全自助。除此之外,利用虚拟化技术还能更方便的部署运维,比如不用一台一台安装 *** 作系统,你安装完一台后,很方便地进行克隆,避免了大量的重复劳力工作。你也不用自己建机房,省去了很多工作,完全交给云服务提供商或者自己内部的云平台团队。
之所以容易混淆虚拟机和云计算,是因为虚拟机确实在云计算中太普遍了,它是云计算中最活跃的主体,也是核心之一,很多服务都是围绕着虚拟机提供服务。在AWS或者其它公有云买云服务,最直接的方式就是申请一台虚拟机。你购买的云数据库,底层也有可能是虚拟机,原理大概是这样的,比如你买一个mysql云数据库,云平台会在后台给你首先起一个虚拟机,这个虚拟机镜像包含了mysql服务,当虚拟机起来,mysql服务就跑起来了。你不仅需要访问数据库,还有可能需要其它相关的功能,比如设置主从、查看日志、创建备份、设置账户权限等,由于虚拟机对用户是不可见的,并且不是所有的用户都会这些 *** 作。因此云服务商还提供了非常方便的API接口,用户只需要调用API或者Web界面就可以完成以上所有 *** 作,而不需要自己去学习和关心怎么弄。底层怎么实现,这个没有固定地方法,有可能是在虚拟机跑个agent程序,执行某个 *** 作,比如创建一个数据库用户,agent就跑一个已经定义好的脚本,当然也有可能通过外部程序来完成数据库内部的配置管理,比如ssh/ansible/puppet等。
总而言之,云计算高大上,近年也是抄的火热,但本质是思维的转变,而非技术的革新。你把计算能力给别人用-云计算,存储给别人用-云存储,数据库给别人用-云数据库(DBaaS),负载均衡给别人用-LBaaS,防火墙给别人用-FWaaS。但实现手段依然是传统的IT技术,比如分布式技术、虚拟化技术、网络技术、自动化运维技术、容灾技术等,并没有造出新技术,而只是通过这些技术组合把一些资源、功能产品或者软件等封装成API对外提供服务。
云计算最权威标准可以参考AWS,IaaS开源实现方案可以参考OpenStack,目前也是云计算领域中最活跃的开源项目之一,目前除了提供IaaS的基础服务(计算、存储、网络)外,还实现了Trove数据库服务、Mistral工作流以及cloud cron服务、Sahara大数据库服务、Magnum容器编排服务等。

事情是是是是是这样的!
我要用DPDK,但是我觉得搞两台服务器连端口发包,太麻烦,虽然实际上,可能并不麻烦。。。。但我就是想在单台服务器上做。

docker+DPDK+OVS 这种方式来做测试。

然后呢就在网上找了个教程,和我的需求真的是一模一样。。但是按照那个教程做的过程中啊,出了一些问题。记录一下~

教程链接: >1、使用的镜像
sudo docker pull networkboot/dhcpd
2、测试的局域网拓扑结构如下:h为 DHCP服务器,ovs交换机s1、s2、s3各连着一台等待分配ip地址的主机。
3、h DHCP服务器通过一对暴露于root namespace 的veth pair相连,具体 *** 作如下
31、生成交换机s1、s2、s3
sudo ovs-vsctl add-br s1sudo ovs-vsctl add-br s2sudo ovs-vsctl add-br s3
32、创建veth pair 即 v1-v2
sudo ip link add v1 type veth peer name v2
33、up
sudo ip link set dev v1 upsudo ip link set dev v2 up
34、给v1配置ip及子网掩码
sudo ifconfig v1 1921681254 netmask 2552552550
35、生成DHCP服务器,监听v1 ,挂载本地data文件夹,data里面中只有dhcpdconf文件
sudo docker run -it \--rm --net host \--init \--name=dhcpServer1 \-v ~/emxbook/docker-dhcpd/data:/data \networkboot/dhcpd v1
dhcpdconf
subnet 19216810 netmask 2552552550 {option routers 19216811;option subnet-mask 2552552550;option domain-name "emxlocal";option domain-name-servers 8888;range 19216812 1921681100;}
35、将v2连接到交换机上
sudo ovs-vsctl add-port s1 v2
36、交换机s1、s2、s3彼此相连
sudo ovs-vsctl add-port s1 s1p1sudo ovs-vsctl set Interface s1p1 type=patchsudo ovs-vsctl set Interface s1p1 options:peer=s2p1sudo ovs-vsctl add-port s2 s2p1sudo ovs-vsctl set Interface s2p1 type=patchsudo ovs-vsctl set Interface s2p1 options:peer=s1p1sudo ovs-vsctl add-port s1 s1p2sudo ovs-vsctl set Interface s1p2 type=patchsudo ovs-vsctl set Interface s1p2 options:peer=s3p1sudo ovs-vsctl add-port s3 s3p1sudo ovs-vsctl set Interface s3p1 type=patchsudo ovs-vsctl set Interface s3p1 options:peer=s1p2
37、创建主机h1、h2、h3,并将其连接到交换机上,其中ubunut:5是添加了基本net-tools、isc-dhcp-client,创建的时候记得使用 --cap-add=NET_ADMIN
sudo docker run -itd --network=none --name=h1 --cap-add=NET_ADMIN ubuntu:5sudo docker run -itd --network=none --name=h2 --cap-add=NET_ADMIN ubuntu:5sudo docker run -itd --network=none --name=h3 --cap-add=NET_ADMIN ubuntu:5sudo ovs-docker add-port s1 eth1 h1sudo ovs-docker add-port s2 eth1 h2sudo ovs-docker add-port s3 eth1 h3
38、可以使用floot-light控制交换机s1、s2、s3交换机(选择)
sudo ovs-vsctl set-controller s1 tcp:127001:6653sudo ovs-vsctl set-controller s2 tcp:127001:6653sudo ovs-vsctl set-controller s3 tcp:127001:6653
4、使用dhclient eht1 向DHCP服务器申请
41、申请ip之前
42、申请ip(服务器端界面)
43申请ip之后,h1(192168138):

同理,h2(192168139):

h3(192168140):

5、测试
51、h1 ping h2(192168139):

52、h2 ping h3(192168140):

6、最后拓扑结构图,ip分配之后的拓扑结构:DHCP服务器(19216816)、h1(192168138)、h2(192168139)、h3(192168140)

7、代码汇总参考
sudo ovs-vsctl add-br s1sudo ovs-vsctl add-br s2sudo ovs-vsctl add-br s3sudo ip link add v1 type veth peer name v2sudo ip link set dev v1 upsudo ip link set dev v2 upsudo ifconfig v1 19216816 netmask 2552552550sudo docker run -it \--rm --net host \--init \--name=dhcpServer \-v ~/emxbook/docker-dhcpd/data:/data \networkboot/dhcpd v1sudo ovs-vsctl add-port s1 v2sudo ovs-vsctl add-port s1 s1p1sudo ovs-vsctl set Interface s1p1 type=patchsudo ovs-vsctl set Interface s1p1 options:peer=s2p1sudo ovs-vsctl add-port s2 s2p1sudo ovs-vsctl set Interface s2p1 type=patchsudo ovs-vsctl set Interface s2p1 options:peer=s1p1sudo ovs-vsctl add-port s1 s1p2sudo ovs-vsctl set Interface s1p2 type=patchsudo ovs-vsctl set Interface s1p2 options:peer=s3p1sudo ovs-vsctl add-port s3 s3p1sudo ovs-vsctl set Interface s3p1 type=patchsudo ovs-vsctl set Interface s3p1 options:peer=s1p2sudo docker run -itd --network=none --name=h1 --cap-add=NET_ADMIN ubuntu:5sudo docker run -itd --network=none --name=h2 --cap-add=NET_ADMIN ubuntu:5sudo docker run -itd --network=none --name=h3 --cap-add=NET_ADMIN ubuntu:5sudo ovs-docker add-port s1 eth1 h1sudo ovs-docker add-port s2 eth1 h2sudo ovs-docker add-port s3 eth1 h3sudo ovs-vsctl set-controller s1 tcp:127001:6653sudo ovs-vsctl set-controller s2 tcp:127001:6653sudo ovs-vsctl set-controller s3 tcp:127001:6653

案例1:配置yum仓库

案例2:测试时间服务器

案例3:配置yum仓库

案例4:检查基础环境

案例5:部署Openstack

案例6:网络管理

案例7:登录openstack
1 案例1:配置yum仓库

11 问题

本案例要求配置基本环境:

配置三台虚拟机

2CPU,6G 内存,50G 硬盘

2CPU,45G 内存,100G 硬盘

配置静态IP ifcfg-eth0

openstack : 192168110

nova: 192168111, 192168112

配置主机名 /etc/hosts,能够相互 ping 通

配置 dns 服务器 /etc/resolvconf

12 方案

此实验的整体方案需要三台机器,openstack作为主节点,nova01 和 nova02作为额外节点,真机做为DNS转发和NTP的服务器(这里不再在表-1中体现),提供域名解析和时间同步服务,具体情况如表-1所示:

表-1

13 步骤

实现此案例需要按照如下步骤进行。

步骤一:准备三台虚拟机

[student@room9pc01 images]$base-vm openstack nova01 nova02

[student@room9pc01 images]$virsh start openstack

[student@room9pc01 images]$virsh start nova01

[student@room9pc01 images]$virsh start nova02

2)opensatck主机扩容为50G

[student@room9pc01 images]$ virsh blockresize--path /var/lib/libvirt/images/openstackimg--size 100G openstack

[student@room9pc01 images]$ virsh console openstack

[root@localhost~]#/usr/bin/growpart /dev/vda1

[root@localhost~]#/usr/sbin/xfs_growfs /

[root@localhost~]# df-h

Filesystem      Size  Used Avail Use%Mounted on

/dev/vda1        50G  914M  50G2%/

3)nova01 和 nova02 主机扩容为100G(以nova01为例)

[student@room9pc01 images]$ virsh blockresize--path /var/lib/libvirt/images/nova01img--size 50G nova01

重新定义'/var/lib/libvirt/images/nova01img'块设备大小

[root@localhost~]#/usr/bin/growpart /dev/vda1

[root@localhost~]#/usr/sbin/xfs_growfs  /

[root@localhost~]# df-h

Filesystem      Size  Used Avail Use%Mounted on

/dev/vda1      100G  917M  100G1%/

4)三台主机配置静态ip(以一台为例)

openstack:192168110

nova01: 192168111

nova02: 192168112

[root@localhost~]#cd /etc/sysconfig/network-scripts/

[root@localhost network-scripts]# vim ifcfg-eth0

# Generated by dracut initrd

DEVICE="eth0"

ONBOOT="yes"

NM_CONTROLLED="no"

TYPE="Ethernet"

BOOTPROTO="static"

PERSISTENT_DHCLIENT="yes"

IPADDR=192168110

NEMASK=2552552550

GATEWAY=1921681254

5)三台主机修改主机名,配置/etc/hosts,和/etc/resolvconf文件(以一台为例)

[root@localhost~]# hostname openstack

[root@localhost~]# echo openstack>/etc/hostname

[root@localhost~]#vim /etc/hosts

192168110openstack

192168111nova01

192168112nova02

[root@localhost~]#vim /etc/resolvconf//去掉search开头的行

;generatedby /usr/sbin/dhclient-script

nameserver1921681254

6)修改三台主机的内存(openstack6G,nova01 和nova02 4G)

[student@room9pc01~]$ virsh edit openstack



<memory unit='KiB'>6588282</memory>

<currentMemory unit='KiB'>6588282</currentMemory>



[student@room9pc01~]$ virsh edit nova01



<memory unit='KiB'>4588282</memory>

<currentMemory unit='KiB'>4588282</currentMemory>



[student@room9pc01~]$ virsh start  openstack

域 openstack 已开始

[student@room9pc01~]$ virsh start  nova01

域 nova01 已开始

[student@room9pc01~]$ virsh start  nova02

域 nova02 已开始
2 案例2:测试时间服务器

21 问题

本案例要求掌握时间服务的配置:

修改 openstack,nova01,nova02 的时间服务器

重启服务后验证配置

22 步骤

实现此案例需要按照如下步骤进行。

步骤一:修改openstack,nova01 和 nova02 的时间服务器(以一台为例)

[root@openstack~]#vim /etc/chronyconf



server1921681254iburst

[root@openstack~]# systemctl restart chronyd

步骤二:验证

[root@openstack~]# chronyc sources-v



||||\

MSName/IP address        Stratum Poll Reach LastRx Last sample

===============================================================================

^gateway36376-93ns[+903ns]+/-26ms

步骤三:两台虚拟机配置静态ip

注意:两台主机同样 *** 作,改一下ip即可(以openstackteducn为例)

[root@localhost~]# echo openstackteducn>/etc/hostname

[root@localhost~]# hostname openstackteducn

//另外一台主机改名为novateducn,配置ip为120

[root@openstack~]#vim /etc/sysconfig/network-scripts/ifcfg-eth0

# Generated by dracut initrd

DEVICE="eth0"

ONBOOT="yes"

IPV6INIT="no"

IPV4_FAILURE_FATAL="no"

NM_CONTROLLED="no"

TYPE="Ethernet"

BOOTPROTO="static"

IPADDR="192168110"

PREFIX=24

GATEWAY=1921681254

[root@openstack~]# systemctl restart network
3 案例3:配置yum仓库

31 问题

本案例要求配置yum仓库:

配置 yum 源,软件仓库一共 4 个

32 步骤

实现此案例需要按照如下步骤进行。

步骤一:三台主机配置yum源(以一台主机为例,共10670个软件包)

[student@room9pc01~]$cd /linux-soft/04/openstack/

[student@room9pc01 openstack]$ ls

cirrosqcow2  RHEL7-extrasiso  RHEL7OSP-10iso  smallqcow2

[student@room9pc01 openstack]$mkdir /var/ftp/RHEL7-extras

[student@room9pc01 openstack]$mkdir /var/ftp/RHEL7OSP-10

[student@room9pc01 openstack]$ mount RHEL7-extrasiso  /var/ftp/RHEL7-extras/

mount:/dev/loop1 写保护,将以只读方式挂载

[student@room9pc01 openstack]$ mount RHEL7OSP-10iso /var/ftp/RHEL7OSP-10/

mount:/dev/loop2 写保护,将以只读方式挂载

[root@openstack~]#vim /etc/yumreposd/localrepo

[local_repo]

name=CentOS-$releasever-Base

baseurl="ftp://1921681254/centos-1804"

enabled=1

gpgcheck=1

[RHEL7-extras]

name=RHEL7-extras

baseurl="ftp://1921681254/RHEL7-extras"

enabled=1

gpgcheck=0

[RHEL7OSP-package]

name=RHEL7OSP-package

baseurl="ftp://1921681254/RHEL7OSP-10/rhel-7-server-openstack-10-rpms"

enabled=1

gpgcheck=0

[RHEL7OSP-devtools]

name=RHEL7OSP-devtools

baseurl="ftp://1921681254/RHEL7OSP-10/rhel-7-server-openstack-10-devtools-rpms"

enabled=1

gpgcheck=0

[root@openstack~]#scp /etc/yumreposd/localrepo192168111:/etc/yumreposd/

root@192168111's password:

localrepo                                                                                          100%  490  4844KB/s  00:00   

[root@openstack ~]# scp /etc/yumreposd/localrepo 192168112:/etc/yumreposd/

root@192168112's password:

localrepo
4 案例4:检查基础环境

41 问题

本案例要求准备基础环境,为安装openstack做准备:

安装额外的软件包

是否卸载firewalld 和 NetworkManager

检查配置主机网络参数(静态IP)

主机名必须能够相互 ping 通

检查配置主机yum源(4个,10670)

依赖软件包是否安装

检查NTP服务器是否可用

检查 /etc/resolvconf 不能有 search 开头的行

42 步骤

实现此案例需要按照如下步骤进行。

步骤一:检查基础环境

1)安装额外软件包(三台机器 *** 作,这里以一台为例)

[root@openstack yumreposd]# yum install-y qemu-kvm libvirt-client libvirt-daemon libvirt-daemon-driver-qemu python-setuptools

2)是否卸载firewalld 和 NetworkManager

[root@openstack~]# rpm-qa|grep NetworkManager

[root@openstack~]# rpm-qa|grep firewalld

3)检查配置主机网络参数

[root@openstack~]#cat /etc/sysconfig/network-scripts/ifcfg-eth0

# Generated by dracut initrd

DEVICE="eth0"

ONBOOT="yes"

NM_CONTROLLED="no"

TYPE="Ethernet"

BOOTPROTO="static"

PERSISTENT_DHCLIENT="yes"

IPADDR=192168110

NEMASK=2552552550

GATEWAY=1921681254

4)验证主机名是否互通

[root@openstack~]# ping openstack



64bytes fromopenstack(192168110):icmp_seq=1ttl=255time=0023ms

64bytes fromopenstack(192168110):icmp_seq=2ttl=255time=0027ms



[root@openstack~]# ping nova01

PINGnova01(192168111)56(84)bytes of data

64bytes fromnova01(192168111):icmp_seq=1ttl=255time=0139ms



[root@openstack~]# ping nova02

PINGnova02(192168112)56(84)bytes of data

64bytes fromnova02(192168112):icmp_seq=1ttl=255time=0251ms



5)检查配置主机yum源

[root@openstack~]# yum repolist

已加载插件:fastestmirror

Loading mirror speeds from cached hostfile

源标识                                                          源名称                                                          状态

RHEL7-extras                                                    RHEL7-extras76

RHEL7OSP-devtools                                              RHEL7OSP-devtools3

RHEL7OSP-package                                                RHEL7OSP-package680

local_repo                                                      CentOS-7-Base9,911

repolist:10,670

6)检查时间同步是否可用

[root@openstack~]# chronyc  sources-v

210Numberof sources=1



||||\

MSName/IP address        Stratum Poll Reach LastRx Last sample

===============================================================================

^gateway3737728+31us[+89us]+/-25ms

[root@openstack~]#

7)检查/etc/resolvconf 不能有 search 开头的行

[root@openstack~]#cat /etc/resolvconf

;generatedby /usr/sbin/dhclient-script

nameserver1921681254
5 案例5:部署Openstack

51 问题

本案例要求通过packstack完成以下配置:

通过packstack部署Openstack

根据相关日志文件进行排错

52 步骤

实现此案例需要按照如下步骤进行。

步骤一:安装packstack

[root@openstack~]# yum install-y openstack-packstack

[root@openstack~]# packstack--gen-answer-file answerini

//answerini与answertxt是一样的,只是用vim打开answerini文件有颜色

Packstack changed given value  to requiredvalue /root/ssh/id_rsapub

[root@openstack~]# vim answerini

42CONFIG_SWIFT_INSTALL=n

45CONFIG_CEILOMETER_INSTALL=n//计费相关模块

49CONFIG_AODH_INSTALL=n//计费相关模块

53CONFIG_GNOCCHI_INSTALL=n//计费相关模块

75CONFIG_NTP_SERVERS=1921681254//时间服务器的地址

98CONFIG_COMPUTE_HOSTS=192168111

102CONFIG_NETWORK_HOSTS=192168110,192168111

333CONFIG_KEYSTONE_ADMIN_PW=a//修改管理员的密码

840CONFIG_NEUTRON_ML2_TYPE_DRIVERS=flat,vxlan//驱动类型

876CONFIG_NEUTRON_ML2_VXLAN_GROUP=239115

//设置组播地址,最后一个随意不能为0和255,其他固定

910CONFIG_NEUTRON_OVS_BRIDGE_MAPPINGS=physnet1:br-ex//物理网桥的名称

921CONFIG_NEUTRON_OVS_BRIDGE_IFACES=br-ex:eth0

//br-ex桥的名称与eth0连接,管理eth0,网桥与哪个物理网卡连接

1179CONFIG_PROVISION_DEMO=n//DEMO是否测试

[root@openstack~]# packstack--answer-file=answerini

Welcome to the Packstack setup utility

The installation log file is available at:/var/tmp/packstack/20190423-170603-b43g_i/openstack-setuplog

Installing:

Clean Up[DONE]

Discovering ip protocol version[DONE]

root@192168111's password:

root@192168110's password:

Setting up ssh keys

Installation completed successfully//出现这个为成功
6 案例6:网络管理

61 问题

本案例要求运用OVS完成以下配置:

查看外部OVS网桥及其端口

验证OVS配置

62 步骤

实现此案例需要按照如下步骤进行。

步骤一:查看外部OVS网桥

1)查看br-ex网桥配置(br-ex为OVS网桥设备)

[root@openstack~]#cat /etc/sysconfig/network-scripts/ifcfg-br-ex

ONBOOT="yes"

NM_CONTROLLED="no"

IPADDR="192168110"

PREFIX=24

GATEWAY=1921681254

DEVICE=br-ex

NAME=br-ex

DEVICETYPE=ovs

OVSBOOTPROTO="static"

TYPE=OVSBridge

2)查看eth0网卡配置(该网卡为OVS网桥的接口)

[root@openstack~]#cat /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE=eth0

NAME=eth0

DEVICETYPE=ovs

TYPE=OVSPort

OVS_BRIDGE=br-ex

ONBOOT=yes

BOOTPROTO=none

3)验证OVS配置

[root@openstack~]# ovs-vsctl show

Bridge br-ex

Controller"tcp:127001:6633"

is_connected:true

fail_mode:secure

Port br-ex

Interface br-ex

type:internal

Port phy-br-ex

Interface phy-br-ex

type:patch

options:{peer=int-br-ex}

Port"eth0"

Interface"eth0"

ovs_version:"250"
7 案例7:登录openstack

71 问题

本案例要求通过Horizon完成以下 *** 作:

修改/etc/>

欢迎分享,转载请注明来源:内存溢出

原文地址: https://www.outofmemory.cn/zz/13433834.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-08-05
下一篇 2023-08-05

发表评论

登录后才能评论

评论列表(0条)

保存