将设为首页浏览此站
开启辅助访问 天气与日历 收藏本站联系我们切换到窄版

易陆发现论坛

 找回密码
 开始注册
查看: 417|回复: 1
收起左侧

Centos8最小化部署安装OpenStack Ussuri

[复制链接]
发表于 2021-7-13 08:30:21 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?开始注册

x
#!/bin/bash
8 Y- a* j4 r; y#Centos8最小化部署安装openstack Ussuri; ~5 r$ c  c% J9 P# _, o
#共两台主机,分别是一台控制节点,一台计算节点
, _/ Q5 r7 S/ M' ]#1、控制节点内存4096M。双网卡,分别为eth0:10.0.0.11,eth1:10.0.0.12
7 i" _. ~0 f, E9 S, e#2、计算节点内存2048M。双网卡,分别为eth0:10.0.0.31,eth1:10.0.0.32
7 K* Y) n% z% U#设置阿里云yum源9 l$ o- l% a  F. T( A$ Z
curl -o /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-8.repo
! n5 T# P2 V3 q! Zrm -f /etc/yum.repos.d/CentOS-AppStream.repo /etc/yum.repos.d/CentOS-PowerTools.repo /etc/yum.repos.d/CentOS-centosplus.repo /etc/yum.repos.d/CentOS-Extras.repo && rm -rf /var/cache/yum && yum makecache && yum -y update && yum -y autoremove
7 |/ E, }( p; k/ n#关闭防火墙" ~. l& q) ~4 T& r! G
systemctl stop firewalld && systemctl disable firewalld* k  G- X$ d, V
#关闭SELinux
2 I. r9 ]8 C4 O, A3 I4 Nsetenforce 0( d- O9 o' I9 i. h/ m6 ?% |
sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config
0 k& k4 i2 E/ ]#关闭swap分区( w! A: k  a" `' N, u# X
swapoff -a
' \1 H5 M4 s! [$ Jsed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab% H. _) w2 B, S3 {3 _4 @
#设置内核
3 k* j6 _+ b0 `3 V) E3 q% Tmodprobe bridge, w( g) e9 b9 [8 n) F. `
modprobe br_netfilter
3 Z  X) _  G  @7 Fcat > /etc/sysconfig/modules/neutron.modules <<EOF' ]# Z1 L* {, Q- I5 I5 k
#!/bin/bash. y; x4 ?. C4 g" ^! B
modprobe -- bridge
- u- S5 z+ P1 h. Z7 Dmodprobe -- br_netfilter1 t3 B# @4 n7 b9 ]1 @: w
EOF
/ f8 u9 x# f6 K$ k$ Nchmod 755 /etc/sysconfig/modules/neutron.modules && bash /etc/sysconfig/modules/neutron.modules% v, D& @' |" Z! {& j8 c
echo "vm.max_map_count=262144" >> /etc/sysctl.conf$ e. }2 r/ H, f' l
echo "net.ipv4.ip_forward=1" >> /etc/sysctl.conf
6 t6 j1 h! `, ~; Cecho "net.bridge.bridge-nf-call-iptables=1" >> /etc/sysctl.conf: k, m( A2 Z# G* q5 T
echo "net.bridge.bridge-nf-call-ip6tables=1" >> /etc/sysctl.conf! ~& I% p- z8 s1 c4 _; B/ i9 e
sysctl -p" k4 Y, g3 Z- N1 M* A1 G' u
#设置时间同步% X/ f1 D; `$ O! N3 P
yum install -y chrony && yum -y autoremove- ?0 m8 @% {  n6 {
sed -i '/^pool/d' /etc/chrony.conf
2 `% m2 q/ v. o& O" |sed -i '/^server/d' /etc/chrony.conf4 Q' }5 m/ E% t! S$ J
echo "pool ntp.aliyun.com iburst" >> /etc/chrony.conf
( u2 U  k  `+ V) {* Rsystemctl start chronyd.service && systemctl enable chronyd.service" f  G* M  }( l9 j, Y  y
#控制节点 设置hostname
+ \- H: f5 Q4 h6 {hostnamectl set-hostname controller
5 a- ^+ F# E8 Y#计算节点 设置hostname
" W2 Q% D) \- c9 H' }hostnamectl set-hostname compute1, h: e- Y; C0 q6 l
#添加host
* O7 x4 b7 ^8 L! }% Iecho "10.0.0.11 controller" >> /etc/hosts- {2 i7 V, n# v& v. }, H) Q5 j
echo "10.0.0.31 compute1" >> /etc/hosts
, q2 ~7 R% K/ \$ c$ o#安装基础组件
5 k7 s* v1 n6 |$ `' s2 ]* D' ~yum install -y centos-release-openstack-ussuri3 |6 y4 ?9 z1 G& @6 K# C
yum config-manager --set-enabled PowerTools
& e& T4 a/ d$ a$ `. xyum upgrade -y7 \3 x$ T" p+ x$ V
yum install -y python3-openstackclient
" S  K! g2 n0 `: N1 M" X! L( H#控制节点 安装Mariadb. u7 [" i- `9 ]8 }% l
yum install -y mariadb mariadb-server python2-PyMySQL3 R( e  Y  K+ |% l
tee /etc/my.cnf.d/openstack.cnf <<-'EOF'$ Q8 U4 X$ w$ t8 F6 \" j- w3 ~: w
[mysqld]9 C1 i% Q; c$ L% |' H3 E- F
bind-address = 10.0.0.117 U8 T8 Z5 \" N
default-storage-engine = innodb
: x. g9 [) \# X( f8 Ninnodb_file_per_table = on
/ _1 K2 ]0 G0 kmax_connections = 4096' d! A; s6 t' U5 a1 ]3 r
collation-server = utf8_general_ci$ v; ?0 G8 j+ f: ?$ n/ i
character-set-server = utf8
" F5 T2 v6 L  f# o0 p* p" Y/ @6 W) FEOF
5 i% V* b) I$ Z+ A4 j" jsystemctl enable mariadb.service && systemctl start mariadb.service2 F+ g2 N# J# j6 y" ~1 y) L9 H
echo -e "\nY\n123456\n123456\nY\nn\nY\nY\n" | mysql_secure_installation% A# A5 m( b5 h
#控制节点 安装RabbitMQ
4 z$ j: M9 M; j* D$ C- ?) T5 Xyum install -y rabbitmq-server7 S2 {5 Q0 ~! {% d* D
systemctl enable rabbitmq-server.service && systemctl start rabbitmq-server.service
7 x5 I  y# V0 Irabbitmqctl add_user openstack 1234563 \% u  a& n2 s2 K/ c6 n5 I
rabbitmqctl set_permissions openstack ".*" ".*" ".*"
5 A# i& u! R8 h& m#控制节点 安装Memcached
0 w; z* f. v1 y+ h4 d" yyum install -y memcached python3-memcached
& H* k8 K1 S! a- b( Esed -i "s/-l 127.0.0.1,::1/-l 127.0.0.1,::1,controller/g" /etc/sysconfig/memcached
6 d5 H, f- B$ d. Wsystemctl enable memcached.service && systemctl start memcached.service6 e- @8 S+ w/ l2 [
#控制节点 安装Etcd
) `; Q& d/ h' f5 h0 J* }yum install -y etcd
% W) |( t9 S. W! S- B4 ~3 A) Drm -f /etc/etcd/etcd.conf
( j' w% c0 h/ I/ ^, Stee /etc/etcd/etcd.conf <<-'EOF'/ u6 ^$ K( I; W' S
#[Member]
  O9 `+ J- d+ m4 uETCD_DATA_DIR="/var/lib/etcd/default.etcd"
  ~9 K6 @6 X5 T' }2 pETCD_LISTEN_PEER_URLS="http://10.0.0.11:2380"
* N! d! z3 d  T+ m# i8 O+ IETCD_LISTEN_CLIENT_URLS="http://10.0.0.11:2379"+ o0 s4 B, s' A* S2 |
ETCD_NAME="controller"7 s/ M* k! [+ d. ]5 R
#[Clustering]
) F" g5 |% s$ L) C' Q6 j0 J$ WETCD_INITIAL_ADVERTISE_PEER_URLS="http://10.0.0.11:2380"4 h& p4 L. U3 ?0 b
ETCD_ADVERTISE_CLIENT_URLS="http://10.0.0.11:2379"
) j, x" o9 x) R7 H) X5 eETCD_INITIAL_CLUSTER="controller=http://10.0.0.11:2380"& h' ?" y0 v. L# @
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"
8 Q" {5 E" s% W" aETCD_INITIAL_CLUSTER_STATE="new"
0 B& b# C- @: ~+ \$ u+ AEOF
7 u. e' F4 ^5 ssystemctl enable etcd && systemctl start etcd
% e& x- C9 I: e#控制节点 安装Identity service' I+ W# C* m8 e( J. y" H
mysql -uroot -p123456 -e "CREATE DATABASE keystone"
( V; a. V- G% P5 b4 Z& Wmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' IDENTIFIED BY '123456'"4 O( e- a$ t2 M' u
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'%' IDENTIFIED BY '123456'"
. c& D1 u  E5 j3 r' s( jyum install -y openstack-keystone httpd python3-mod_wsgi
6 ~- F) y- _4 U0 s& Zsed -i "556c connection = mysql+pymysql://keystone:123456@controller/keystone" /etc/keystone/keystone.conf
' C" w8 n) Q6 c. `* e; `5 Hsed -i "2418c provider = fernet" /etc/keystone/keystone.conf
9 N; G5 c0 I6 |) f! u. \& {su -s /bin/sh -c "keystone-manage db_sync" keystone7 G3 Q9 g1 H7 D( g8 w+ e
keystone-manage fernet_setup --keystone-user keystone --keystone-group keystone5 g: B6 n2 C; N9 n/ t* e. T+ @( ?* o$ \
keystone-manage credential_setup --keystone-user keystone --keystone-group keystone0 L6 s1 n( h/ r- i! s6 v, ^
keystone-manage bootstrap --bootstrap-password 123456 \, [- e3 `4 a/ p8 N$ O& i
--bootstrap-admin-url http://controller:5000/v3/ \- H4 l3 c- d2 R% ^+ p) A5 Q
--bootstrap-internal-url http://controller:5000/v3/ \
9 l5 G$ S5 Y% a& v% c3 i--bootstrap-public-url http://controller:5000/v3/ \
2 U' _6 U- G4 S* `) t--bootstrap-region-id RegionOne$ X7 K) Y; ]/ A) ~1 E* X% @
echo "ServerName controller" >> /etc/httpd/conf/httpd.conf  j% R1 K4 I8 b$ X+ E' v$ u( x
ln -s /usr/share/keystone/wsgi-keystone.conf /etc/httpd/conf.d/
" v( M: J" D  h$ X/ K4 P2 D! ], vsystemctl enable httpd.service && systemctl start httpd.service
: h6 E1 x" A/ O! f/ z% j# O6 c- yecho "export OS_USERNAME=admin" >> /etc/profile. G6 s: W- X6 v
echo "export OS_PASSWORD=123456" >> /etc/profile
* G' e6 s! L7 q9 p  secho "export OS_PROJECT_NAME=admin" >> /etc/profile
& b" ]3 _( i6 I+ Wecho "export OS_USER_DOMAIN_NAME=Default" >> /etc/profile
- X! y: Q  B6 w1 hecho "export OS_PROJECT_DOMAIN_NAME=Default" >> /etc/profile
$ M8 m6 `6 d1 ]1 v7 Decho "export OS_AUTH_URL=http://controller:5000/v3" >> /etc/profile5 _/ C8 D/ u4 M" V1 k( s4 }" b* q
echo "export OS_IDENTITY_API_VERSION=3" >> /etc/profile
& g& `% R& `' ^; ~source /etc/profile9 i8 g, _$ R/ r/ f
openstack project create --domain default --description "Service Project" service: ^" @, r/ H0 `9 i: Y1 g2 h, e; [2 w
#控制节点 安装Image service
- I4 Z# P3 A* z1 U# ?8 K# C$ omysql -uroot -p123456 -e "CREATE DATABASE glance"8 M0 M4 @7 ^, d. S+ }% c! o3 F
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' IDENTIFIED BY '123456'"
2 s* O" e6 i, z5 Gmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'%' IDENTIFIED BY '123456'"# `6 I6 g2 c6 t) Q4 x
openstack user create --domain default --password 123456 glance6 `' y* I( c' D" K  i
openstack role add --project service --user glance admin: M/ T" ~1 X* l/ L2 ?! r
openstack service create --name glance --description "OpenStack Image" image
2 \1 e: k1 n& W! y. m7 Qopenstack endpoint create --region RegionOne image public http://controller:92928 f! A% ]5 C7 B) N9 \6 ], y7 x5 t  \1 e
openstack endpoint create --region RegionOne image internal http://controller:9292
: c% i0 Z2 n1 ^openstack endpoint create --region RegionOne image admin http://controller:9292: i. J, h6 R8 r3 N" e4 x1 w5 o- `
yum install -y openstack-glance
( a# N1 }. P! h  _0 \sed -i "2062c connection = mysql+pymysql://glance:123456@controller/glance" /etc/glance/glance-api.conf, l. Y: G$ F+ u  F$ A8 N
sed -i "5034c www_authenticate_uri = http://controller:5000" /etc/glance/glance-api.conf
+ ^  `. x0 S, vsed -i "5035c auth_url = http://controller:5000" /etc/glance/glance-api.conf
$ D# W' [3 ^. Z* {4 g5 I4 c- e+ osed -i "5036c memcached_servers = controller:11211" /etc/glance/glance-api.conf
, j5 ?9 H4 _, d* W1 P9 _- Tsed -i "5037c auth_type = password" /etc/glance/glance-api.conf
! S4 A# K$ k# r/ ^% psed -i "5038c project_domain_name = Default" /etc/glance/glance-api.conf
  Q9 S: b0 r5 ~, y. p0 W& `sed -i "5039c user_domain_name = Default" /etc/glance/glance-api.conf
9 o5 o# v# a3 O" N  R( G" Lsed -i "5040c project_name = service" /etc/glance/glance-api.conf% ]6 l0 o8 K8 N
sed -i "5041c username = glance" /etc/glance/glance-api.conf
* ]$ I+ C: f& [( wsed -i "5042c password = 123456" /etc/glance/glance-api.conf. s; I- W7 w. }% S) u2 t" q7 _
sed -i "5678c flavor = keystone" /etc/glance/glance-api.conf
2 b% O8 E9 x0 J4 Gsed -i "3413c stores = file,http" /etc/glance/glance-api.conf
) c1 {3 b; H. @8 q' @0 nsed -i "3414c default_store = file" /etc/glance/glance-api.conf$ w  c4 B5 }3 p. d0 D/ B
sed -i "3415c filesystem_store_datadir = /var/lib/glance/images/" /etc/glance/glance-api.conf* r: R! k4 x" Y: N2 M1 E
su -s /bin/sh -c "glance-manage db_sync" glance- F) }9 l5 h9 @0 f& W" M
systemctl enable openstack-glance-api.service && systemctl start openstack-glance-api.service
- b, L) z5 S2 J. c#控制节点 安装Placement service. u( Q( U: O( L0 y) j9 x! f+ y9 a
mysql -uroot -p123456 -e "CREATE DATABASE placement"
; R! F" z! y, k" ^5 t2 ~" r7 ]mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'localhost' IDENTIFIED BY '123456'"- a- I. s! U7 Q# k- n/ D
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON placement.* TO 'placement'@'%' IDENTIFIED BY '123456'"
' X/ F8 b$ W- t- dopenstack user create --domain default --password 123456 placement4 q, `2 a9 k' h# U8 n
openstack role add --project service --user placement admin
( A6 G" l, y6 C9 B: ]' c0 Q9 uopenstack service create --name placement --description "Placement API" placement/ Q( r  w" r  b! x) Q
openstack endpoint create --region RegionOne placement public http://controller:8778# r) B5 h, K. ]3 Q. Q
openstack endpoint create --region RegionOne placement internal http://controller:87780 C3 m4 {6 Z. c" ?8 E# M# {( |0 f
openstack endpoint create --region RegionOne placement admin http://controller:8778
- ^" W3 B1 q: [; C0 n6 w3 nyum install -y openstack-placement-api) E  N1 c! \) Z/ j/ v
sed -i "507c connection = mysql+pymysql://placement:123456@controller/placement" /etc/placement/placement.conf% p9 e1 t( r: J9 _" i
sed -i "192c auth_strategy = keystone" /etc/placement/placement.conf, O* z$ ~3 M" F1 T
sed -i "241c auth_url = http://controller:5000/v3" /etc/placement/placement.conf
8 F1 o! [8 f  ksed -i "242c memcached_servers = controller:11211" /etc/placement/placement.conf
; k4 |+ z/ D4 U8 I; Jsed -i "243c auth_type = password" /etc/placement/placement.conf  C8 J3 V9 A/ @- {" W
sed -i "244c project_domain_name = Default" /etc/placement/placement.conf
2 F2 d% \3 O5 D- k8 u# g, H. ased -i "245c user_domain_name = Default" /etc/placement/placement.conf
4 _1 r* {2 i8 n8 J1 a" b3 @8 U+ fsed -i "246c project_name = service" /etc/placement/placement.conf0 {1 {  p" i/ Z+ L8 t( `
sed -i "247c username = placement" /etc/placement/placement.conf' }& N+ a# c$ o/ j" Q
sed -i "248c password = 123456" /etc/placement/placement.conf
/ G& E) R, y1 W/ s8 b- wsu -s /bin/sh -c "placement-manage db sync" placement
: M2 `3 b& J9 hsystemctl restart httpd
/ c# [7 v+ @$ x/ `9 V! i  p#控制节点 安装Compute service: D+ i- x. {/ q+ L, i% j1 ]
mysql -uroot -p123456 -e "CREATE DATABASE nova_api"% {& o2 d7 b6 B3 ]' g
mysql -uroot -p123456 -e "CREATE DATABASE nova"
+ J) B+ d( W, u$ {% }mysql -uroot -p123456 -e "CREATE DATABASE nova_cell0"8 Q1 C% k) w2 K  |  ^/ z+ J
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' IDENTIFIED BY '123456'", y, i5 ?) O6 u3 Z
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' IDENTIFIED BY '123456'"2 _( ]2 v( [# @% a$ g+ o5 u: C
mysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"
1 p  a1 F2 f$ W2 M: ymysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' IDENTIFIED BY '123456'"
6 o1 F  b% O4 c" o) l4 F+ K. O4 ymysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' IDENTIFIED BY '123456'"
3 P; ^% l) L/ p* A' [2 Kmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' IDENTIFIED BY '123456'"6 _* M* J2 L1 S# O3 I3 M+ o4 W
openstack user create --domain default --password 123456 nova9 T5 _/ O% K/ W; X
openstack role add --project service --user nova admin
) Y  V7 Z! q) `# x* zopenstack service create --name nova --description "OpenStack Compute" compute
1 U" r: H! _5 E4 j" p7 aopenstack endpoint create --region RegionOne compute public http://controller:8774/v2.18 y0 n. _6 c% f* P
openstack endpoint create --region RegionOne compute internal http://controller:8774/v2.1/ K" }, \) p' ?7 r; a
openstack endpoint create --region RegionOne compute admin http://controller:8774/v2.1$ H) @, L+ ], _
yum install -y openstack-nova-api openstack-nova-conductor openstack-nova-novncproxy openstack-nova-scheduler
3 M1 C" i; r  P' E- W& z2 Xsed -i "2c enabled_apis = osapi_compute,metadata" /etc/nova/nova.conf
% t4 v" P8 l/ W. B7 e, @! ysed -i "3c transport_url = rabbit://openstack:123456@controller:5672/" /etc/nova/nova.conf! n: v* S" B2 k; G8 l
sed -i "4c my_ip = 10.0.0.11" /etc/nova/nova.conf/ A% n0 w; ^/ h. s+ Y
sed -i "1079c connection = mysql+pymysql://nova:123456@controller/nova_api" /etc/nova/nova.conf# B# h2 z4 |  P" L
sed -i "1622c connection = mysql+pymysql://nova:123456@controller/nova" /etc/nova/nova.conf
7 L* M, m  h( Z/ ~9 t) ksed -i "872c auth_strategy = keystone" /etc/nova/nova.conf
. k6 V. C6 |* S# h. i% Lsed -i "2561c www_authenticate_uri = http://controller:5000/" /etc/nova/nova.conf, d. J) ?2 P3 _# l# j. \' N
sed -i "2562c auth_url = http://controller:5000/" /etc/nova/nova.conf5 N% \+ y9 W1 u, K; \6 m0 I
sed -i "2563c memcached_servers = controller:11211" /etc/nova/nova.conf  \. Z9 k' F& ~$ A, Y2 Z+ _
sed -i "2564c auth_type = password" /etc/nova/nova.conf
" n" k- ?* ]- g% O( Msed -i "2565c project_domain_name = Default" /etc/nova/nova.conf
( t5 `7 g$ Y$ rsed -i "2566c user_domain_name = Default" /etc/nova/nova.conf9 f( L2 Z4 x3 m( m# h
sed -i "2567c project_name = service" /etc/nova/nova.conf
' w0 H3 I* u& B) ]) Nsed -i "2568c username = nova" /etc/nova/nova.conf. I' b8 ~3 O, t3 J) Z
sed -i "2569c password = 123456" /etc/nova/nova.conf
: a9 K. o# O4 m( h1 I. p2 N  u% p0 Hsed -i "5171c enabled = true" /etc/nova/nova.conf! r! J2 e2 M: l" X% @
sed -i '5172c server_listen = $my_ip' /etc/nova/nova.conf
  H2 n; T: j3 t/ u5 Y9 Z) ^sed -i '5173c server_proxyclient_address = $my_ip' /etc/nova/nova.conf& m: @7 G* I2 T  h3 p
sed -i "1937c api_servers = http://controller:9292" /etc/nova/nova.conf
+ ~# `5 w, U4 E0 k9 D6 csed -i "3571c lock_path = /var/lib/nova/tmp" /etc/nova/nova.conf% |( m# l. t, o: g' x
sed -i "4093c region_name = RegionOne" /etc/nova/nova.conf
; Z! I# l* q/ W# s6 rsed -i "4094c project_domain_name = Default" /etc/nova/nova.conf
6 L8 ^/ r: l0 S- f" A2 A2 [sed -i "4095c project_name = service" /etc/nova/nova.conf
  B( c0 {$ n& ^sed -i "4096c auth_type = password" /etc/nova/nova.conf
" R) j2 m5 ^. |% l: {& ?9 ssed -i "4097c user_domain_name = Default" /etc/nova/nova.conf# y6 \- Q! m; B  x: R
sed -i "4098c auth_url = http://controller:5000/v3" /etc/nova/nova.conf. p; E2 n1 D& @- P- e
sed -i "4099c username = placement" /etc/nova/nova.conf" t0 O& w5 @! h& U: f+ a  i: \1 `
sed -i "4100c password = 123456" /etc/nova/nova.conf
5 u, @" f% x$ H$ ~/ e4 T* h& T" ?2 Lsed -i "4509c discover_hosts_in_cells_interval = 300" /etc/nova/nova.conf
3 \' I" t3 \8 B9 P" B' ]su -s /bin/sh -c "nova-manage api_db sync" nova
. M( l+ e% O  |% d; \( Ksu -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova" a+ M- {' }: V" q
su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova
7 V: B" n# c; p9 `& C& ?) |su -s /bin/sh -c "nova-manage db sync" nova) H# ?# B: F) c& ^# N: Z
systemctl enable openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service && systemctl start openstack-nova-api.service openstack-nova-scheduler.service openstack-nova-conductor.service openstack-nova-novncproxy.service1 o& F2 ]- m& r/ I  l0 L  X* d+ c
#计算节点 安装Compute service4 q- Z1 g, Y( W" ?& w0 t, U/ E4 a- C$ t
yum install -y openstack-nova-compute
  l5 y5 L6 T' I4 @2 w% csed -i "2c enabled_apis = osapi_compute,metadata" /etc/nova/nova.conf+ ?2 P# U& @2 D% J
sed -i "3c transport_url = rabbit://openstack:123456@controller" /etc/nova/nova.conf
/ l  M0 x* d5 \% ?& Osed -i "4c my_ip = 10.0.0.31" /etc/nova/nova.conf
% t# @2 ^/ Z# H: r+ I( jsed -i "872c auth_strategy = keystone" /etc/nova/nova.conf
# q. p' S4 f( k& m. L6 K& v' O. used -i "2561c www_authenticate_uri = http://controller:5000/" /etc/nova/nova.conf' M5 I( Q; M+ a& I0 K6 v: Y
sed -i "2562c auth_url = http://controller:5000/" /etc/nova/nova.conf
/ D- h# k. r& L8 b0 l1 a* Jsed -i "2563c memcached_servers = controller:11211" /etc/nova/nova.conf
1 t# R2 {" T- F9 F' Used -i "2564c auth_type = password" /etc/nova/nova.conf
0 G! a& o' H7 ~sed -i "2565c project_domain_name = Default" /etc/nova/nova.conf
2 ~6 s& ]  w; j' [# I7 i0 L* csed -i "2566c user_domain_name = Default" /etc/nova/nova.conf
4 Q$ c6 E6 Y: H' q) Y; e; lsed -i "2567c project_name = service" /etc/nova/nova.conf4 w, p, Q  _: ~
sed -i "2568c username = nova" /etc/nova/nova.conf
" j& T- `7 O  zsed -i "2569c password = 123456" /etc/nova/nova.conf
. o" T8 F7 d" Hsed -i "5171c enabled = true" /etc/nova/nova.conf
* _- a  X5 K& ised -i "5172c server_listen = 0.0.0.0" /etc/nova/nova.conf
' k5 N+ c9 T1 X4 Nsed -i '5173c server_proxyclient_address = $my_ip' /etc/nova/nova.conf
3 {# _6 R  Y  e0 ased -i "5174c novncproxy_base_url = http://controller:6080/vnc_auto.html" /etc/nova/nova.conf& @5 o3 j8 D! Y; x. p/ I
sed -i "1937c api_servers = http://controller:9292" /etc/nova/nova.conf. k) [# h: L; [5 @
sed -i "3571c lock_path = /var/lib/nova/tmp" /etc/nova/nova.conf
0 z8 `. I; J$ U  _3 Dsed -i "4093c region_name = RegionOne" /etc/nova/nova.conf4 u  d( O7 a3 D
sed -i "4094c project_domain_name = Default" /etc/nova/nova.conf
1 I, o4 g, D* ssed -i "4095c project_name = service" /etc/nova/nova.conf
5 V6 x+ e( A0 o, l7 P- Ksed -i "4096c auth_type = password" /etc/nova/nova.conf" l( X; U. s0 N% \/ D' ]5 I
sed -i "4097c user_domain_name = Default" /etc/nova/nova.conf
. D* J5 z1 _2 I' ased -i "4098c auth_url = http://controller:5000/v3" /etc/nova/nova.conf
- d* y7 X- v8 W7 k* I4 ksed -i "4099c username = placement" /etc/nova/nova.conf
  d4 i' b" `( H% w* l2 s2 R+ Hsed -i "4100c password = 123456" /etc/nova/nova.conf
& i' c7 {8 c2 @% t/ M#执行命令,查看是否支持CPU虚拟化,如果大于0则支持。7 d( i9 `3 T+ X. t, }( s, d5 l
egrep -c '(vmx|svm)' /proc/cpuinfo* P1 H5 f, O3 j9 u. m  t
#如果不支持的话还需要执行下面的命令
7 z0 n% ~# b+ B' r; x" Z/ x! _sed -i "2722c virt_type = qemu" /etc/nova/nova.conf1 W6 Q) S) i, F/ |: F
systemctl enable libvirtd.service openstack-nova-compute.service && systemctl start libvirtd.service openstack-nova-compute.service
* N) r. z5 N8 F#控制节点 计算节点从注册到发现会有延迟,根据discover_hosts_in_cells_interval 配置轮询发现时间,可以执行下面命令手动发现计算节点
: N: F9 y& Z7 O  k% ^su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova0 G" ^" Y$ U8 u
#控制节点 安装Networking service
: d; V$ v# H" o% t4 m6 I: rmysql -uroot -p123456 -e "CREATE DATABASE neutron"
8 l0 ?/ [5 v! k/ m1 Rmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' IDENTIFIED BY '123456'"
# r( g2 v9 e2 K* Qmysql -uroot -p123456 -e "GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' IDENTIFIED BY '123456'") H, W5 r% _' C* U, ^! s
openstack user create --domain default --password 123456 neutron, K* s. p- U1 M5 ^2 c
openstack role add --project service --user neutron admin
8 E$ X/ A  I4 o" J; sopenstack service create --name neutron --description "OpenStack Networking" network8 k2 Z+ Y5 ?% T) h) [/ r
openstack endpoint create --region RegionOne network public http://controller:96961 Y' ^6 h) l* v% ]0 ?
openstack endpoint create --region RegionOne network internal http://controller:9696
0 w9 n3 U- v+ f7 t- `! hopenstack endpoint create --region RegionOne network admin http://controller:9696
" b+ Q( C+ U4 H  F. I0 D7 dyum install -y openstack-neutron openstack-neutron-ml2 openstack-neutron-linuxbridge ebtables7 P2 R2 v% R2 s1 V- {, h. c
#配置服务器组件
! X2 i- g" \( g* Psed -i "2c core_plugin = ml2" /etc/neutron/neutron.conf
. n: n( r1 q1 e  |8 s7 P. u. D1 nsed -i "3c service_plugins = router" /etc/neutron/neutron.conf
; }. u* P) J  T  hsed -i "4c allow_overlapping_ips = true" /etc/neutron/neutron.conf0 w. S. E; N' k1 V/ L
sed -i "5c transport_url = rabbit://openstack:123456@controller" /etc/neutron/neutron.conf
: F  ?6 l* B8 C. Qsed -i "6c auth_strategy = keystone" /etc/neutron/neutron.conf
, M1 V0 ~) m, s) T  v/ wsed -i "7c notify_nova_on_port_status_changes = true" /etc/neutron/neutron.conf
3 K& l- ^3 ~$ csed -i "8c notify_nova_on_port_data_changes = true" /etc/neutron/neutron.conf
& ]* E  G  E5 G) ?sed -i "254c connection = mysql+pymysql://neutron:123456@controller/neutron" /etc/neutron/neutron.conf
$ a+ P; P, E: U7 _8 msed -i "359c www_authenticate_uri = http://controller:5000" /etc/neutron/neutron.conf
5 C' I" i  w$ W2 n8 x& J& hsed -i "360c auth_url = http://controller:5000" /etc/neutron/neutron.conf" M& s2 G# b/ L4 C' B  M& D5 B' D  g- Z
sed -i "361c memcached_servers = controller:11211" /etc/neutron/neutron.conf. O# l9 q6 q. I; q7 h% q
sed -i "362c auth_type = password" /etc/neutron/neutron.conf
2 @  O: @. y6 u5 Ised -i "363c project_domain_name = default" /etc/neutron/neutron.conf" F5 }  p2 q6 A' h% b" A( V1 i
sed -i "364c user_domain_name = default" /etc/neutron/neutron.conf
, y! r% Y9 G2 {4 g3 r/ ]: Tsed -i "365c project_name = service" /etc/neutron/neutron.conf& M( i/ W5 R# U' x+ ^
sed -i "366c username = neutron" /etc/neutron/neutron.conf
% d* g4 j2 F6 I8 T3 used -i "367c password = 123456" /etc/neutron/neutron.conf
0 @( U6 ?. n4 b! ^. P% k6 ~) i, Bsed -i "521c lock_path = /var/lib/neutron/tmp" /etc/neutron/neutron.conf
( j$ [" g) F- r5 ?. _" Y! yecho "[nova]" >> /etc/neutron/neutron.conf# T! }. I7 D7 V% Y1 h
echo "auth_url = http://controller:5000" >> /etc/neutron/neutron.conf" m3 I) x4 x$ T
echo "auth_type = password" >> /etc/neutron/neutron.conf
) m. }! X$ D& E6 a( j% G8 W6 Necho "project_domain_name = default" >> /etc/neutron/neutron.conf
4 i( J, ^: y9 c" Z) q8 z  fecho "user_domain_name = default" >> /etc/neutron/neutron.conf6 v5 [! P1 T& E# N$ U) Z/ e" w
echo "region_name = RegionOne" >> /etc/neutron/neutron.conf
8 T  R7 _" Y3 \" \echo "project_name = service" >> /etc/neutron/neutron.conf
+ v% W* p, t, L/ V/ V/ U. qecho "username = nova" >> /etc/neutron/neutron.conf
" B+ B4 l  t' m. @$ E$ t) gecho "password = 123456" >> /etc/neutron/neutron.conf1 e6 A# q: T/ y, p; Z6 n, d- p" E# n
#配置Modular Layer 2 (ML2) plug-in
- j# A9 D! T" q; f, \5 T# Decho "[ml2]" >> /etc/neutron/plugins/ml2/ml2_conf.ini; _! L. _4 n  E
echo "type_drivers = flat,vlan,vxlan" >> /etc/neutron/plugins/ml2/ml2_conf.ini, j, C" a3 S+ ~& [8 {
echo "tenant_network_types = vxlan" >> /etc/neutron/plugins/ml2/ml2_conf.ini
+ b$ g1 C" e* K# E; i6 _2 M$ ]echo "mechanism_drivers = linuxbridge,l2population" >> /etc/neutron/plugins/ml2/ml2_conf.ini  d2 Y+ ]* _( M& @" [( ?
echo "extension_drivers = port_security" >> /etc/neutron/plugins/ml2/ml2_conf.ini" i1 C' G) {8 }
echo "[ml2_type_flat]" >> /etc/neutron/plugins/ml2/ml2_conf.ini
9 Z9 W* v; Q) E" |9 y" J% Wecho "flat_networks = provider" >> /etc/neutron/plugins/ml2/ml2_conf.ini
1 ?) B8 _5 Q$ G- {echo "vni_ranges = 1:1000" >> /etc/neutron/plugins/ml2/ml2_conf.ini5 E: e+ L) R# [$ l
echo "[securitygroup]" >> /etc/neutron/plugins/ml2/ml2_conf.ini
, m9 ]( [+ D- Cecho "enable_ipset = true" >> /etc/neutron/plugins/ml2/ml2_conf.ini5 A# \( Y' c6 A6 {+ O/ x
#配置Linux bridge agent
8 A; B  c- t5 {( d3 X6 ]echo "[linux_bridge]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini2 A7 _' b$ u' |% ^' L
#eth1为另外第二张网卡
5 A6 c1 c- K& h/ F3 U  yecho "physical_interface_mappings = provider:eth1" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini; N7 D) P. _6 m% @
echo "[vxlan]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
( ]- \4 A$ P* D. x; w9 R7 {" p) cecho "enable_vxlan = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
! E/ G" f. E. q: y#10.0.0.12为第二张网卡的IP) C# ?" [) H3 B& s+ s7 _% y. a
echo "local_ip = 10.0.0.12" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
" P. G& P2 V. W2 P5 jecho "l2_population = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
% L, u7 b# K( `  a# N9 Oecho "[securitygroup]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
! f1 O( _: f8 S5 Lecho "enable_security_group = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini  ?+ a! G8 W( @8 E( Y. }- B
echo "firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini/ F; X: v5 _+ v  S% h' u
#配置layer-3 agent
8 q+ b6 t" A9 D7 @1 ?1 msed -i "2c interface_driver = linuxbridge" /etc/neutron/l3_agent.ini! A! f: W2 \2 O# y9 i
#配置DHCP agent
5 w' h, Q- ]. ~sed -i "2c interface_driver = linuxbridge" /etc/neutron/dhcp_agent.ini: m* e; ]; W: p+ Z
sed -i "3c dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq" /etc/neutron/dhcp_agent.ini" p+ Z5 P9 i+ q- \
sed -i "4c enable_isolated_metadata = true" /etc/neutron/dhcp_agent.ini- |. J. B# C5 }
#配置metadata agent
+ o# S& P! `3 |/ g$ z* dsed -i "2c nova_metadata_host = controller" /etc/neutron/metadata_agent.ini9 p. r+ q! p4 j- p: N+ t4 a
sed -i "3c metadata_proxy_shared_secret = 123456" /etc/neutron/metadata_agent.ini
1 `( X6 v! u9 V* C$ z#配置计算服务使用网络服务
& C5 R  r0 g' N$ J7 l* z0 V8 zsed -i " 3334c auth_url = http://controller:5000" /etc/nova/nova.conf
  k8 n2 N% {/ ^7 u0 a9 Ksed -i " 3335c auth_type = password" /etc/nova/nova.conf
  L  H4 c9 v9 S! m0 fsed -i " 3336c project_domain_name = default" /etc/nova/nova.conf
# f+ P  a7 v5 c1 M0 tsed -i " 3337c user_domain_name = default" /etc/nova/nova.conf9 J4 G2 q! G& {2 D7 e# A: d% p/ c
sed -i " 3338c region_name = RegionOne" /etc/nova/nova.conf
& X9 @1 ^% }1 O% i/ a( ssed -i " 3339c project_name = service" /etc/nova/nova.conf3 V$ a& k+ S2 r8 [% N
sed -i " 3340c username = neutron" /etc/nova/nova.conf: U7 k8 [2 c: Z/ C0 D& |
sed -i " 3341c password = 123456" /etc/nova/nova.conf' X0 g- Q1 \, E" v" ?
sed -i " 3342c service_metadata_proxy = true" /etc/nova/nova.conf
  m- P; g, q, h: J# K& lsed -i " 3343c metadata_proxy_shared_secret = 123456" /etc/nova/nova.conf
! x, M" P) I. A( V( L# Q: ^ln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini! G1 M9 d. D6 S
su -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron  C8 c9 r* \7 t
systemctl restart openstack-nova-api.service
* }8 U  ^5 C; v: psystemctl enable neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service && systemctl start neutron-server.service neutron-linuxbridge-agent.service neutron-dhcp-agent.service neutron-metadata-agent.service( `1 X2 ~7 y3 }/ \+ t% @* N
systemctl enable neutron-l3-agent.service && systemctl start neutron-l3-agent.service
- _0 r5 A3 h0 Z0 Y# z# [#计算节点 安装Networking service
3 [* r: c6 N2 N8 oyum install -y openstack-neutron-linuxbridge ebtables ipset
- U6 V; R; E. V& Rsed -i "2c transport_url = rabbit://openstack:123456@controller" /etc/neutron/neutron.conf6 v: [2 a5 U9 K; L/ n
sed -i "3c auth_strategy = keystone" /etc/neutron/neutron.conf, P4 h6 ^5 J1 {  ]! B# @  G
sed -i "359c www_authenticate_uri = http://controller:5000" /etc/neutron/neutron.conf3 `5 }4 N* f; v' p& t0 T
sed -i "360c auth_url = http://controller:5000" /etc/neutron/neutron.conf
& a. W. _: I) H5 d* I$ t; @/ i! nsed -i "361c memcached_servers = controller:11211" /etc/neutron/neutron.conf. O- s7 M8 |$ ]- ~  J# L0 ^8 p$ k
sed -i "362c auth_type = password" /etc/neutron/neutron.conf$ E- X! k! t6 Q% J" j2 z9 P& A
sed -i "363c project_domain_name = default" /etc/neutron/neutron.conf  {/ Y+ j9 R2 x) F6 {6 B1 v3 d) o
sed -i "364c user_domain_name = default" /etc/neutron/neutron.conf
' J2 e  D% w0 X6 @  J0 M% Dsed -i "365c project_name = service" /etc/neutron/neutron.conf
+ ]3 \% X( d+ e/ X2 {2 |) X% Nsed -i "366c username = neutron" /etc/neutron/neutron.conf, F3 G* }6 I4 c5 \7 s5 K  b5 \* ]0 G
sed -i "367c password = 123456" /etc/neutron/neutron.conf4 U* a: C/ X# ~
sed -i "521c lock_path = /var/lib/neutron/tmp" /etc/neutron/neutron.conf
8 T9 C: d6 @% e! F/ G# q; t7 }echo "[linux_bridge]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini5 y) U! X- H* ^; ]) |. }* ]0 c! y3 d
#eth1为另外第二张网卡$ P, H0 L9 B% ]2 r3 K& g
echo "physical_interface_mappings = provider:eth1" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini% [, n' ]. D; B+ U( u; s5 x
echo "[vxlan]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini; ^) _5 S; T: f  X; U7 ^! [
echo "enable_vxlan = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
! Y2 S" n9 g. F#10.0.0.32为第二张网卡的IP1 Q2 |# I9 J0 k+ s
echo "local_ip = 10.0.0.32" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini9 j$ {& G. Q# L
echo "l2_population = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini: F9 G% F& r2 ]- i$ e% P- u
echo "[securitygroup]" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini# C0 j+ f" c! m8 M$ U% }% Z
echo "enable_security_group = true" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
# x1 T0 W# n  g3 [1 m/ K9 P" D" Iecho "firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver" >> /etc/neutron/plugins/ml2/linuxbridge_agent.ini
5 p- G( ^% p2 P( I#配置计算服务使用网络服务
5 u/ L" r! o6 R, ksed -i " 3334c auth_url = http://controller:5000" /etc/nova/nova.conf8 C+ I! Z6 {# J% o2 E  w
sed -i " 3335c auth_type = password" /etc/nova/nova.conf
& ^6 {6 P. C$ k1 N6 {sed -i " 3336c project_domain_name = default" /etc/nova/nova.conf5 X4 w( s  I. ~! f' Y
sed -i " 3337c user_domain_name = default" /etc/nova/nova.conf, w1 D; |. l) Z
sed -i " 3338c region_name = RegionOne" /etc/nova/nova.conf
' u8 {6 g6 E! d# t1 ~sed -i " 3339c project_name = service" /etc/nova/nova.conf. ?3 G8 }& O, c$ {. T, s
sed -i " 3340c username = neutron" /etc/nova/nova.conf
' ]1 W. ^1 M, a/ v1 W* {sed -i " 3341c password = 123456" /etc/nova/nova.conf
% l3 Q% C1 E9 Rsystemctl restart openstack-nova-compute.service
6 M; w; P' H/ G3 }: k( i9 asystemctl enable neutron-linuxbridge-agent.service && systemctl start neutron-linuxbridge-agent.service
, j) g* e. v4 D+ ~0 x2 O, I#控制节点 安装Dashboard5 s3 w$ j, \, j* b
yum install -y openstack-dashboard
- I) Y& ~0 f. q# h, J, [8 h4 |; d; qsed -i '118c OPENSTACK_HOST = "controller"' /etc/openstack-dashboard/local_settings
; G8 C4 N  y1 _1 t4 @sed -i "39c ALLOWED_HOSTS = ['*']" /etc/openstack-dashboard/local_settings+ Q& r7 H; R# J6 R! P* P) i
sed -i "104c SESSION_ENGINE = 'django.contrib.sessions.backends.cache'" /etc/openstack-dashboard/local_settings
6 p/ J8 L1 q1 H3 l6 \; n( z. ?sed -i "94c CACHES = {" /etc/openstack-dashboard/local_settings
+ k: ]% L6 V: k* A7 qsed -i "95c 'default': {" /etc/openstack-dashboard/local_settings
* H9 J$ k7 f2 Y4 e9 t1 j7 E" Ased -i "96c 'BACKEND': 'django.core.cache.backends.memcached.MemcachedCache'," /etc/openstack-dashboard/local_settings1 c: o6 w3 Z; ~8 |" e! l
sed -i "97c 'LOCATION': 'controller:11211'," /etc/openstack-dashboard/local_settings
" j8 u7 B# m) L4 hsed -i "98c }" /etc/openstack-dashboard/local_settings
& U! _. b( ~4 l8 M1 M3 t9 s$ p$ Used -i "99c }" /etc/openstack-dashboard/local_settings
4 Y" @! X, D- D2 a7 i4 Y4 g5 O8 ksed -i '119c OPENSTACK_KEYSTONE_URL = "http://%s:5000/v3" % OPENSTACK_HOST' /etc/openstack-dashboard/local_settings
1 d/ r' O- f8 B$ }echo 'OPENSTACK_KEYSTONE_MULTIDOMAIN_SUPPORT = True' >> /etc/openstack-dashboard/local_settings
! i* M) T; [( Fecho 'OPENSTACK_API_VERSIONS = {' >> /etc/openstack-dashboard/local_settings
& I4 R/ |: A2 w  |/ m$ Aecho '  "identity": 3,' >> /etc/openstack-dashboard/local_settings
* `' X0 u) a+ A0 h0 }echo '  "image": 2,' >> /etc/openstack-dashboard/local_settings
" O- s! J0 C. J4 d+ C- O4 Z/ ]echo '  "volume": 3' >> /etc/openstack-dashboard/local_settings( ^+ O, y4 |  Y0 n, E
echo '}' >> /etc/openstack-dashboard/local_settings
7 I( g9 I- v( P) q  f2 Wecho 'OPENSTACK_KEYSTONE_DEFAULT_DOMAIN = "Default"' >> /etc/openstack-dashboard/local_settings5 v# M8 R% q- \& Y. q3 Z& d; j
echo 'OPENSTACK_KEYSTONE_DEFAULT_ROLE = "user"' >> /etc/openstack-dashboard/local_settings
& }$ d! t' r& q- A  |sed -i '123c TIME_ZONE = "Asia/Shanghai"' /etc/openstack-dashboard/local_settings
" n5 W! G& c9 @3 v* ?) secho "WEBROOT = '/dashboard/'" >> /etc/openstack-dashboard/local_settings
6 o8 h! e$ [1 J8 {. O1 }echo 'WSGIApplicationGroup %{GLOBAL}' >> /etc/httpd/conf.d/openstack-dashboard.conf
5 O7 D6 ?$ `3 C; `, Psystemctl restart httpd.service memcached.service
% X4 ?5 [8 |% _+ x9 g* i* C#安装完成,可访问http://controller/dashboard/查看1 @. Q* s* U8 S* {, S' D. \$ u
 楼主| 发表于 2021-9-13 11:07:27 | 显示全部楼层
目录:! x% p  j7 W1 ~, @" _0 S; C. _' a
  • 为何选择云计算/云计算之前遇到的问题
  • 什么是云计算
  • 云服务模式
  • 云应用形式
  • 传统应用与云感知应用% h- i; H) [7 B/ D- K- x4 W5 j
  • openstack及其相关组件介绍
  • flat/vlan/gre/vxlan介绍
  • 分布式存储ceph介绍
  • openstack mitaka三节点部署实战

    3 p! V+ _  I, [5 Q5 J/ B
+ j/ h# A' R& {
一:为何选择云计算/云计算之前遇到的问题
    一、有效解决硬件单点故障问题
    单点故障是指某个硬件的故障造成网站某个服务的中断。要真正解决这个问题,需要为每个硬件准备冗余,这不仅大大增加了硬件购置成本,而且部署与维护成本也不容小视。
    而云计算平台是基于服务器集群,从设计之初就考虑了单点故障问题,并在建设时有效地解决了这个问题。如果一家云服务商出现单点故障问题,就如同存在银行的钱丢了。
    二、按需增/减硬件资源
    自己托管服务器,增/减硬件一直是头疼的问题。
    1. 增加服务器的时候,购买服务器需要时间,而且这个时间自己无法控制。而使用云服务器,随时可以增加服务器——垂手可得。
    2. 减服务器只能从机房拉回办公室,无法再把服务器退给厂商,购置服务器的成本就浪费了。而使用云服务器,如果下个月不用,不续费就行了(针对阿里云按月购买的情况)——想用就用,想扔就扔。
    3. 不能按需增加满足基本需求的服务器配置。假如我们现在需要一台低配置的服务器用Linux跑缓存服务,如果为之单独购买一台便宜的低配置的服务器很不合算,因为这台服务器仅仅一年的电费就至少要3000元左右。所以只能尽量减少服务器数量,提高单台服务器的配置,在让一台服务器跑更多东西。而使用云服务器,需要什么样的配置就买什么样的配置,让各个服务器的职责更单一,互相之间的影响更小——职责分明,效率更高。
    三、BGP线路解决南北互通问题
    南北互通问题是南方电信与北方联通线路之间的互通问题,这个问题困扰我们多年,之前用过双线机房,解决的也不是很好。目前只有BGP线路才能有效解决这个问题,而拥有真正的BGP线路的机房不是很多,成本也非常高。而我准备使用的阿里云用的就是BGP线路,这也是吸引我们的主要地方之一。
    究竟什么是南北互通问题?基于我们的理解简体描述一下,不对之处欢迎指出。南北互通问题实际就是路由问题。假设我们的服务器放在上海电信的机房,上海一位联通的用户访问我们的服务器,要先绕到联通的北京总出口(假设总出口在北京),然后再绕回上海。实际上这位联通用户可以通过上海的线路直接到达我们的服务器,不用绕这么远,但上海电信的机房无法告知联通的路由器走近路过来,只能按照联通路由器设定好的路由走。本来即使走北京绕一下也没有大的影响,毕竟是光的速度,但是由于大多数联通的用户访问电信网络都这么绕着走,联通的总出口成为了瓶颈,总出口流量太大时,联通的用户访问电信的网络速度就会慢。BGP线路也没什么神奇之处,只是它能决定走什么路由过来,不绕远路,问题自然解决了。它有这样的特权,就不仅能解决南北互通的问题,而且能解决其他网络的互通问题,比如教育网。因为有权限决定路由,就可以优化路由,哪条路堵,我就换条路。
    四、按需增/减带宽
    带宽是主要成本,托管服务器时,与ISP服务商签一年合同之前就要确定带宽。用了一段时间之后,你发现带宽买多了,想减一些是不允许的。中途要临时增加带宽一段时间也是不行的,要买就买一年(这是根据我们接触过的ISP服务商)。所以,一般都会多买一些带宽,留一些余量。
    使用云服务器可以灵活地增减带宽,不会浪费带宽,即使买少了也不用担心,随时可以增加。虽然各个云服务商会有一定的限制,比如在阿里云一次至少要购买1个月的带宽,但比自己托管服务器灵活很多,同样的带宽条件,会节省不少成本,尤其是带宽需求在一年中变化比较大的网站。
    五、更有吸引力的费用支付方式
    在IDC机房托管服务器一般是签一年合同,一次支付一个季度的费用。
    而使用云服务,一次可以支付更短时间的费用,比如阿里云可以一次只支付一个月的费用,节约了流动资金。
    从总体上考虑,差不多的成本,却拥有更多的内存、更多的CPU、更多的硬盘空间、更优质的带宽线路,更重要的是可以随时按需扩展计算资源。
! C2 J3 k. u; f5 [- U/ b; R9 |2 f
二:什么是云计算(资源和服务的交互方式)

. p: w* D, q6 Y  s3 g
    一、概念分解:   
        云:云计算中的云,代表循环利用的意思(云多了变成雨,落到地面,云减少,水蒸发到空中,云增加)。
       计算:云计算中的计算,代表计算资源,涵盖虚机、存储、网络等。
       云计算:代表计算资源向云水循环一样,按需分配,循环利用。
       附:企业数据中心部署在云计算分布式平台上,类似于从原来单台发电机转向电厂集中供电模式,它意味着访问计算机和存储系统也可以作为一种商品流通,就像煤气、水电一样,取用方便,费用低廉,只不过它是通过互联网传输的,云就是互联网的一种比喻
    二、云计算分类:
        狭义:IT基础设施的交互和使用模式,通过网络以按需,易扩展的方式获取资源
        广义:服务(IT基础设施、软件等)的交互和使用模式,通过网络以按需、易扩展的方式获取资源。
        
& p$ v2 k* n3 f4 A8 s# u- o
三:云服务模式
7 [) ?. r2 E- g+ r
     一、IaaS:基础设施即服务
        用户通过网络获取虚机、存储、网络,然后用户根据自己的需求操作获取的资源。  典型应用:亚马逊AWS等
1 p) n% R0 q2 P2 r3 W9 ]7 p
     二、PaaS:平台即服务
        将软件研发平台作为一种服务, 如Eclipse/Java编程平台,服务商提供编程接口/运行平台等。典型应用:Google AppEngine、Force.com、微软Azure等
3 ]% B4 o% k0 {2 l- x
     三、SaaS:软件即服务  
        将软件作为一种服务通过网络提供给用户,如web的电子邮件、HR系统、订单管理系统、客户关系系统等。用户无需购买软件,而是向提供商租用基于web的软件,来管理企业经营活动。典型应用:Google Doc、Saleforce.com、Oracle CRM On Demand、Office Live Workspace等/ l. j+ t# v* L" G* w* j
" L9 G+ w+ e: P) F; [) I0 O
四:云应用形式
   
    一.私有云
        将基础设施与软硬件资源构建于防火墙内,基于iaas构建私有云平台供企业内部使用,开源组件有:openstack(最为出色),cloudstack等6 O# j- O% a* A4 J9 {8 X" d
    二.云存储
        云存储系统是一个以数据存储和管理为核心的云计算系统
6 A7 N* U1 |9 b8 _; B
    三.云游戏
        游戏运行云平台服务端,云平台将游戏画面解压缩后传给用户,用户端无需高配置处理器和显卡,只需要基本的视频解压缩能力即可。
; r) Z9 _7 _8 z9 q/ W2 s& M0 N7 @
    四.云物联
        基于云平台实现物物相连的互联网。/ g6 K6 h  S& a. M9 r3 v: f
    五.云安全
        通过网状的大量客户端检测网络中软件的异常,获取木马,恶意程序的最新信息,推送到云平台服务端自动分析和处理,再把解决方案发送给每一个客户端。云平台使用者越多,越安全。: D$ A0 S8 A4 I# u. K* g/ S& D" p0 D
    六.公有云
        云平台对外开放,主要以Iaas和Paas为主,较为成熟的是Iaas,如阿里云,腾讯云,×××,ucloud,首都在线等
% J! u! p) X. B! G, Q
    七.混合云  4 M' K/ ~9 F, S$ \. K
        公有云和私有云的结合,即对企业内部又对企业外部,例如AWS
# M* e$ Z; L3 N9 F
    7 f1 v2 K/ w3 Y4 Y, z% a) z
五:传统应用与云感知应用
: t: t4 G$ w% I9 i; X2 v% O) f% |% R
    一、传统应用  F3 e' |2 c' T" w
    传统应用像养宠物,宠物病了要细心呵护
    每个应用都是独特的、专门的
    专门的服务器、硬件和软件保证可靠性
    资源不够,增加cpu、内存、磁盘
    专门的技术支持
    二、云感知应用
: d# a6 ?' M+ P8 q. Y4 J) k# @# |
    云感知应用像养牛,牛生病了,你需要一头新的牛
    应用跑在一个或多个虚拟机里
    资源不够,增加新的虚拟机
    应用挂起,重启或创建新的虚拟机
4 ?6 Q2 l- W1 _  x7 g

/ p% [8 c9 Q( `8 N$ ], A
六:openstack与及其相关组件介绍
: q/ a6 n2 \. W/ k
    一、openstack由来* s2 l% ~5 h. J( U9 {! I1 o/ z" t
            openstack最早由美国国家航空航天局NASA研发的Nova和Rackspace研发的swift组成。后来以apache许可证授权,旨在为公共及私有云平台建设。openstack主要用来为企业内部实现类似于Amazon EC2和S3的云基础架构服务(Iaas).每6个月更新一次,基本与ubuntu同步,命名是以A-Z作为首字母来的。
     二、openstack项目与组件(服务名是项目名的别名)

% f7 k1 ^5 V& r" K- p% v
    核心项目3个
    1.控制台
    服务名:Dashboard
    项目名:Horizon
    功能:web方式管理云平台,建云主机,分配网络,配安全组,加云盘
    ; F; d- o( Y! k: M# Z% r/ [1 K
    2.计算
    服务名:计算
    项目名:Nova
    功能:负责响应虚拟机创建请求、调度、销毁云主机
   
- w8 D& r2 n0 `3 ?
    3.网络
    服务名:网络
    项目名:Neutron
    功能:实现SDN(软件定义网络),提供一整套API,用户可以基于该API实现自己定义专属网络,不同厂商可以基于此API提供自己的产品实现
        " r2 D) Z$ c- H! D
         存储项目2个
    1.对象存储
    服务名:对象存储
    项目名:Swift
    功能:REST风格的接口和扁平的数据组织结构。RESTFUL HTTP API来保存和访问任意非结构化数据,ring环的方式实现数据自动复制和高度可以扩展架构,保证数据的高度容错和可靠性
   
4 }$ J* C% G, c0 y/ A8 C; ]
    2.块存储
    服务名:块存储
    项目名:Cinder
    功能:提供持久化块存储,即为云主机提供附加云盘。

" t. E, @) z0 x& h% B
    共享服务项目3个
    1.认证服务
    服务名:认证服务
    项目名:Keystone
    功能:为访问openstack各组件提供认证和授权功能,认证通过后,提供一个服务列表(存放你有权访问的服务),可以通过该列表访问各个组件。
   
7 Y4 u  F/ _. y% R, Q% n" _" t
    2.镜像服务
    服务名:镜像服务
    项目名:Glance
    功能:为云主机安装操作系统提供不同的镜像选择
, Z# t% a2 d+ y! L) {2 p
    3.计费服务
    服务名:计费服务
    项目名:Ceilometer
    功能:收集云平台资源使用数据,用来计费或者性能监控

. I) {% A1 L" R2 D1 X' l' s/ a
    高层服务项目1个
    1.编排服务
    服务名:编排服务
    项目名:Heat
    功能:自动化部署应用,自动化管理应用的整个生命周期.主要用于Paas

: M4 s6 K; `4 g% }! x; e( W( V! e$ k; O0 m
    三、openstack各组件详解及运行流程

9 k: _$ C) M8 q7 t4 \5 K, a$ I
各组件逻辑关系图:

! j7 m4 W8 l$ p; {" t: V- `

' s( f- Q5 v, O( b# Wopenstack新建云主机流程图:
虚拟机启动过程如下:
  • 界面或命令行通过RESTful API向keystone获取认证信息。
  • keystone通过用户请求认证信息,并生成auth-token返回给对应的认证请求。
  • 界面或命令行通过RESTful API向nova-api发送一个boot instance的请求(携带auth-token)。
  • nova-api接受请求后向keystone发送认证请求,查看token是否为有效用户和token。
  • keystone验证token是否有效,如有效则返回有效的认证和对应的角色(注:有些操作需要有角色权限才能操作)。
  • 通过认证后nova-api和数据库通讯。
  • 初始化新建虚拟机的数据库记录。
  • nova-api通过rpc.call向nova-scheduler请求是否有创建虚拟机的资源(Host ID)。
  • nova-scheduler进程侦听消息队列,获取nova-api的请求。
  • nova-scheduler通过查询nova数据库中计算资源的情况,并通过调度算法计算符合虚拟机创建需要的主机。
  • 对于有符合虚拟机创建的主机,nova-scheduler更新数据库中虚拟机对应的物理主机信息。
  • nova-scheduler通过rpc.cast向nova-compute发送对应的创建虚拟机请求的消息。
  • nova-compute会从对应的消息队列中获取创建虚拟机请求的消息。
  • nova-compute通过rpc.call向nova-conductor请求获取虚拟机消息。(Flavor)
  • nova-conductor从消息队队列中拿到nova-compute请求消息。
  • nova-conductor根据消息查询虚拟机对应的信息。
  • nova-conductor从数据库中获得虚拟机对应信息。
  • nova-conductor把虚拟机信息通过消息的方式发送到消息队列中。
  • nova-compute从对应的消息队列中获取虚拟机信息消息。
  • nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求glance-api获取创建虚拟机所需要镜像。
  • glance-api向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机镜像信息(URL)。
  • nova-compute通过keystone的RESTfull API拿到认证k的token,并通过HTTP请求neutron-server获取创建虚拟机所需要的网络信息。
  • neutron-server向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机网络信息。
  • nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求cinder-api获取创建虚拟机所需要的持久化存储信息。
  • cinder-api向keystone认证token是否有效,并返回验证结果。
  • token验证通过,nova-compute获得虚拟机持久化存储信息。
  • nova-compute根据instance的信息调用配置的虚拟化驱动来创建虚拟机。

    , P- O1 J1 y7 E4 A1 P

% D9 q# e3 Z- |  q
8 r5 O4 w. P+ E, X) u( t
下面我们就围绕上图流程展开
! H' K  A' I6 i0 |. _5 g
, }/ p' b# X8 H4 H) _3 ]
1.keystone

User:指使用Openstack service的用户,可以是人、服务、系统,但凡使用了Openstack service的对象都可以称为User。

Project(Tenant):可以理解为一个人、或服务所拥有的 资源集合 。在一个Project(Tenant)中可以包含多个User,每一个User都会根据权限的划分来使用Project(Tenant)中的资源。比如通过Nova创建虚拟机时要指定到某个Project中,在Cinder创建卷也要指定到某个Project中。User访问Project的资源前,必须要与该Project关联,并且指定User在Project下的Role。

Role:用于划分权限。可以通过给User指定Role,使User获得Role对应的操作权限。Keystone返回给User的Token包含了Role列表,被访问的Services会判断访问它的User和User提供的Token中所包含的Role。系统默认使用管理Role admin和成员Role _member_ 。

Policy:OpenStack对User的验证除了OpenStack的身份验证以外,还需要鉴别User对某个Service是否有访问权限。Policy机制就是用来控制User对Tenant中资源(包括Services)的操作权限。对于Keystone service来说,Policy就是一个JSON文件,默认是/etc/keystone/policy.json。通过配置这个文件,Keystone Service实现了对User基于Role的权限管理。

Token:是一个字符串表示,作为访问资源的令牌。Token包含了在 指定范围和有效时间内 可以被访问的资源。EG. 在Nova中一个tenant可以是一些虚拟机,在Swift和Glance中一个tenant可以是一些镜像存储,在Network中一个tenant可以是一些网络资源。Token一般被User持有。

Credentials:用于确认用户身份的凭证

Authentication:确定用户身份的过程

Service:Openstack service,即Openstack中运行的组件服务。

Endpoint:一个可以通过网络来访问和定位某个Openstack service的地址,通常是一个URL。比如,当Nova需要访问Glance服务去获取p_w_picpath 时,Nova通过访问Keystone拿到Glance的endpoint,然后通过访问该endpoint去获取Glance服务。我们可以通过Endpoint的region属性去定义多个region。Endpoint 该使用对象分为三类:

  • admin url –> 给admin用户使用,Post:35357
  • internal url –> OpenStack内部服务使用来跟别的服务通信,Port:5000
  • public url –> 其它用户可以访问的地址,Post:5000

    % J0 C- a$ h( t6 |& K& w

创建完service后创建API EndPoint. 在openstack中,每一个service都有三种end points. Admin, public, internal。 Admin是用作管理用途的,如它能够修改user/tenant(project)。 public 是让客户调用的,比如可以部署在外网上让客户可以管理自己的云。internal是openstack内部调用的。三种endpoints 在网络上开放的权限一般也不同。Admin通常只能对内网开放,public通常可以对外网开放internal通常只能对安装有openstack对服务的机器开放。

V3新增
  • Tenant 重命名为 Project
  • 添加了 Domain 的概念
  • 添加了 Group 的概念

    1 k0 M9 E  Q1 g, l8 W! y; o
9 k) R$ @' V. o+ g0 F2 p

0 p5 ]- ~7 [, D' m7 Y5 }

$ M/ l' A# ~3 I. r# X' A
  • 用户alice登录keystone系统(password或者token的方式),获取一个临时的token和catalog服务目录(v3版本登录时,如果没有指定scope,project或者domain,获取的临时token没有任何权限,不能查询project或者catalog)。
  • alice通过临时token获取自己的所有的project列表。
  • alice选定一个project,然后指定project重新登录,获取一个正式的token,同时获得服务列表的endpoint,用户选定一个endpoint,在HTTP消息头中携带token,然后发送请求(如果用户知道project name或者project id可以直接第3步登录)。
  • 消息到达endpoint之后,由服务端(nova)的keystone中间件(pipeline中的filter:authtoken)向keystone发送一个验证token的请求。(token类型:uuid需要在keystone验证token,pki类型的token本身是包含用户详细信息的加密串,可以在服务端完成验证)
  • keystone验证token成功之后,将token对应用户的详细信息,例如:role,username,userid等,返回给服务端(nova)。
  • 服务端(nova)完成请求,例如:创建虚拟机。
  • 服务端返回请求结果给alice。

    ; j6 q" i/ g% {$ w% R, N
/ u2 _/ y' p1 P/ g1 r: j0 X
2.glance
v1. p2 T# F, k. u& S0 g, ~9 z
. i. Z* r7 H, w8 |1 M& B5 ^: I
v2
% r6 X: b* |* [8 v
, _/ n4 T% P' |; A
3.nova与cinder
nova主要组成:
    nova-api( a2 \% O! I: M
    nova-scheduler( y9 U* M0 _+ R/ [+ L& e
    nova-compute
    nova-conductor
7 ~! b0 B5 D- i2 o2 K
cinder主要组成:
    cinder-api8 H: r9 q9 ?2 V0 Q, o5 F& P
    cinder-scheduler+ X+ V: `& _1 [* T% [  o
    cinder-volume
! \3 @3 z- C* z& F( Z9 a
[size=1.16em]cinder各组件功能:
[size=1.16em]Cinder-api 是 cinder 服务的 endpoint,提供 rest 接口,负责处理 client 请求,并将 RPC 请求发送至 cinder-scheduler 组件。
[size=1.16em]Cinder-scheduler 负责 cinder 请求调度,其核心部分就是 scheduler_driver, 作为 scheduler manager 的 driver,负责 cinder-volume 具体的调度处理,发送 cinder RPC 请求到选择的 cinder-volume。
[size=1.16em]Cinder-volume 负责具体的 volume 请求处理,由不同后端存储提供 volume 存储空间。目前各大存储厂商已经积极地将存储产品的 driver 贡献到 cinder 社区
8 d3 {* @  G+ E5 T5 ~
cinder架构图:6 V( g; r6 g0 X

# a. H* R1 E8 P
8 H9 }) e- E' q( J! U* ~5 C" F% A# v
0 {' z3 i; s9 ?+ O6 K( N. J
openstack组件间通信:调用各组件api提供的rest接口,组件内通信:基于rpc(远程过程调用)机制,而rpc机制是基于AMQP模型实现的
从rpc使用的角度出发,nova,neutron,和cinder的流程是相似的,我们以cinder为例阐述rpc机制

8 v2 D; ^* U! t  M" p$ F, ~0 y
Openstack 组件内部的 RPC(Remote Producer Call)机制的实现是基于 AMQP(Advanced Message Queuing Protocol)作为通讯模型,从而满足组件内部的松耦合性。AMQP 是用于异步消息通讯的消息中间件协议,AMQP 模型有四个重要的角色:
    Exchange:根据 Routing key 转发消息到对应的 Message Queue 中
    Routing key:用于 Exchange 判断哪些消息需要发送对应的 Message Queue
    Publisher:消息发送者,将消息发送的 Exchange 并指明 Routing Key,以便 Message Queue           可以正确的收到消息
    Consumer:消息接受者,从 Message Queue 获取消息
消息发布者 Publisher 将 Message 发送给 Exchange 并且说明 Routing Key。Exchange 负责根据 Message 的 Routing Key 进行路由,将 Message 正确地转发给相应的 Message Queue。监听在 Message Queue 上的 Consumer 将会从 Queue 中读取消息。
Routing Key 是 Exchange 转发信息的依据,因此每个消息都有一个 Routing Key 表明可以接受消息的目的地址,而每个 Message Queue 都可以通过将自己想要接收的 Routing Key 告诉 Exchange 进行 binding,这样 Exchange 就可以将消息正确地转发给相应的 Message Queue。

, b" ]6 g) @& X1 W# v' U8 y
Publisher可以分为4类:
    Direct Publisher发送点对点的消息;
    Topic Publisher采用“发布——订阅”模式发送消息;
    Fanout Publisher发送广播消息的发送;
    Notify Publisher同Topic Publisher,发送 Notification 相关的消息。
7 {' T5 O9 V0 R- m3 j
Exchange可以分为3类:
    1.Direct Exchange根据Routing Key进行精确匹配,只有对应的 Message Queue 会接受到消息;
    2.Topic Exchange根据Routing Key进行模式匹配,只要符合模式匹配的Message Queue都会收到消息;
    3.Fanout Exchange将消息转发给所有绑定的Message Queue。

AMQP消息模型

http://s5.51cto.com/wyfs02/M01/87/03/wKiom1fRH4XRvsJ-AAdFsB4SwGg766.png


, Y- d! O9 I1 R
RPC 发送请求
Client 端发送 RPC 请求由 publisher 发送消息并声明消息地址,consumer 接收消息并进行消息处理,如果需要消息应答则返回处理请求的结果消息。

2 i% s3 m# l& N% g
OpenStack RPC 模块提供了 rpc.call,rpc.cast, rpc.fanout_cast 三种 RPC 调用方法,发送和接收 RPC 请求。

! e. Q6 z6 K. g( v, C
1.rpc.call 发送 RPC 请求并返回请求处理结果,请求处理流程如图 5 所示,由 Topic Publisher 发送消息,Topic Exchange 根据消息地址进行消息转发至对应的 Message Queue 中,Topic Consumer 监听 Message Queue,发现需要处理的消息则进行消息处理,并由 Direct Publisher 将请求处理结果消息,请求发送方创建 Direct Consumer 监听消息的返回结果
2.rpc.cast 发送 RPC 请求无返回,请求处理流程如图 6 所示,与 rpc.call 不同之处在于,不需要请求处理结果的返回,因此没有 Direct Publisher 和 Direct Consumer 处理。
3.rpc.fanout_cast 用于发送 RPC 广播信息无返回结果
- V5 r- {4 A! |3 q' s$ B: x
4.neutron
neutron包含组件:
    neutron-server
, Q1 h+ C8 [: m8 ]* {; b
    neutron-plugin, O. |- ^" r3 O' H' x, ^; d2 H
    neutron-agent
, v' Q: Y  g7 z/ ~3 g
neutron各组件功能介绍:
1.Neutron-server可以理解为一个专门用来接收Neutron REST API调用的服务器,然后负责将不同的rest api分发到不同的neutron-plugin上。
2.Neutron-plugin可以理解为不同网络功能实现的入口,各个厂商可以开发自己的plugin。Neutron-plugin接收neutron-server分发过来的REST API,向neutron database完成一些信息的注册,然后将具体要执行的业务操作和参数通知给自身对应的neutron agent。
3.Neutron-agent可以直观地理解为neutron-plugin在设备上的代理,接收相应的neutron-plugin通知的业务操作和参数,并转换为具体的设备级操作,以指导设备的动作。当设备本地发生问题时,neutron-agent会将情况通知给neutron-plugin。
4.Neutron database,顾名思义就是Neutron的数据库,一些业务相关的参数都存在这里。
5.Network provider,即为实际执行功能的网络设备,一般为虚拟交换机(OVS或者Linux Bridge)。

. N) i5 G0 j. P) A) W$ `
neutron-plugin分为core-plugin和service-plugin两类。
Core-plugin,Neutron中即为ML2(Modular Layer 2),负责管理L2的网络连接。ML2中主要包括network、subnet、port三类核心资源,对三类资源进行操作的REST API被neutron-server看作Core API,由Neutron原生支持。其中:
Service-plugin,即为除core-plugin以外其它的plugin,包括l3 router、firewall、loadbalancer、×××、metering等等,主要实现L3-L7的网络服务。这些plugin要操作的资源比较丰富,对这些资源进行操作的REST API被neutron-server看作Extension API,需要厂家自行进行扩展。
“Neutron对Quantum的插件机制进行了优化,将各个厂商L2插件中独立的数据库实现提取出来,作为公共的ML2插件存储租户的业务需求,使得厂商可以专注于L2设备驱动的实现,而ML2作为总控可以协调多厂商L2设备共同运行”。在Quantum中,厂家都是开发各自的Service-plugin,不能兼容而且开发重复度很高,于是在Neutron中就为设计了ML2机制,使得各厂家的L2插件完全变成了可插拔的,方便了L2中network资源扩展与使用。

% ^+ A0 q) ]4 \9 E( \+ l8 G' x
(注意,以前厂商开发的L2 plugin跟ML2都存在于neutron/plugins目录下,而可插拔的ML2设备驱动则存在于neutron/plugins/ml2/drivers目录下)
; [. t& Q: ~$ k8 h2 g: L
ML2作为L2的总控,其实现包括Type和Mechanism两部分,每部分又分为Manager和Driver。Type指的是L2网络的类型(如Flat、VLAN、VxLAN等),与厂家实现无关。Mechanism则是各个厂家自己设备机制的实现,如下图所示。当然有ML2,对应的就可以有ML3,不过在Neutron中L3的实现只负责路由的功能,传统路由器中的其他功能(如Firewalls、LB、×××)都被独立出来实现了,因此暂时还没有看到对ML3的实际需求。
一般而言,neutron-server和各neutron-plugin部署在控制节点或者网络节点上,而neutron agent则部署在网络节点上和计算节点上。我们先来分析控制端neutron-server和neutron-plugin的工作,然后再分析设备端neutron-agent的工作。
neutron新进展(dragon  flow):
https://www.ustack.com/blog/neutron-dragonflow/
网络模式介绍:
根据创建网络的用户的权限,Neutron network 可以分为:
  • Provider network:管理员创建的和物理网络有直接映射关系的虚拟网络。
  • Tenant network:租户普通用户创建的网络,物理网络对创建者透明,其配置由 Neutorn 根据管理员在系统中的配置决定。

    7 ]7 K$ `: s  j. m
根据网络的类型,Neutron network 可以分为:
  • VLAN network(虚拟局域网) :基于物理 VLAN 网络实现的虚拟网络。共享同一个物理网络的多个 VLAN 网络是相互隔离的,甚至可以使用重叠的 IP 地址空间。每个支持 VLAN network 的物理网络可以被视为一个分离的 VLAN trunk,它使用一组独占的 VLAN ID。有效的 VLAN ID 范围是 1 到 4094。
  • Flat network:基于不使用 VLAN 的物理网络实现的虚拟网络。每个物理网络最多只能实现一个虚拟网络。
  • local network(本地网络):一个只允许在本服务器内通信的虚拟网络,不知道跨服务器的通信。主要用于单节点上测试。
  • GRE network (通用路由封装网络):一个使用 GRE 封装网络包的虚拟网络。GRE 封装的数据包基于 IP 路由表来进行路由,因此 GRE network 不和具体的物理网络绑定。
  • VXLAN network(虚拟可扩展网络):基于 VXLAN 实现的虚拟网络。同 GRE network 一样, VXLAN network 中 IP 包的路由也基于 IP 路由表,也不和具体的物理网络绑定。

    % w) o  h  A! n4 x) `; t
注:在AWS中,该概念对应 VPC 概念。AWS 对 VPC 的数目有一定的限制,比如每个账户在每个 region 上默认最多只能创建 5 个VPC,通过特别的要求最多可以创建 100 个。

9 l( F7 R' ?: i7 d
1.vlan
; r  m# w/ \( y
2.gre与vxlan请参考
http://www.cnblogs.com/sammyliu/p/4622563.html
5 H7 N; x, \3 y0 Y
gre网络

& Y6 j+ w) ~" t7 _, _. @( a+ Z3 K
gre与vxlan区别
# {" Q/ \2 H) S
关于gre和vxlan二次封装数据包的MTU问题
VXLAN 模式下虚拟机中的 mtu 最大值为1450,也就是只能小于1450,大于这个值会导致 openvswitch 传输分片,进而导致虚拟机中数据包数据重传,从而导致网络性能下降。GRE 模式下虚拟机 mtu 最大为1462。
计算方法如下:
  • vxlan mtu = 1450 = 1500 – 20(ip头) – 8(udp头) – 8(vxlan头) – 14(以太网头)
  • gre mtu = 1462 = 1500 – 20(ip头) – 4(gre头) – 14(以太网头)

    ; R! Y! z8 D4 i  Q4 I
可以配置 Neutron DHCP 组件,让虚拟机自动配置 mtu,
#/etc/neutron/dhcp_agent.ini[DEFAULT]dnsmasq_config_file = /etc/neutron/dnsmasq-neutron.conf#/etc/neutron/dnsmasq-neutron.confdhcp-option-force=26,1450或1462
  • 1.
  • 2.
  • 3.
  • 4.8 P* X1 \# O. w- t& _
重启 DHCP Agent,让虚拟机重新获取 IP,然后使用 ifconfig 查看是否正确配置 mtu。

' H# p9 n6 i+ \  c3 B1 u4 |
您需要登录后才可以回帖 登录 | 开始注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

如有购买积分卡请联系497906712

QQ|返回首页|Archiver|手机版|小黑屋|易陆发现 点击这里给我发消息

GMT+8, 2021-12-2 09:00 , Processed in 0.081744 second(s), 21 queries .

Powered by LR.LINUX.cloud bbs168x X3.2 Licensed

© 2012-2022 Comsenz Inc.

快速回复 返回顶部 返回列表