Date: 1月 6, 2019
循序渐进:如何在没有共享存储的情况下在Google Cloud Platform(Google Compute Engine)上配置Linux故障转移群集#google #gce #sanless #cluster
在本分步指南中,我将向您介绍在Google Cloud Platform(Google Compute Engine,又名GCE)中配置高可用性2节点MySQL群集(以及见证服务器)所需的所有步骤。 该指南包括适当的屏幕截图,shell命令和代码片段。 我假设您对Google Cloud Platform有点熟悉并且已经拥有一个帐户。 如果没有,您今天就可以报名参加免费试用。 我还将假设您具有基本的Linux系统管理技能,并了解基本的故障转移群集概念,如虚拟IP,仲裁等。
免责声明:云是一个快速发展的目标。 因此,功能/屏幕/按钮必然会随着时间的推移而发生变化,因此您的体验可能会与您在下面看到的略有不同。 虽然本指南将向您展示如何使MySQL数据库具有高可用性,但您当然可以调整此信息和流程以保护其他应用程序或数据库,如SAP,PostgreSQL,Oracle,WebSphere MQ,NFS文件服务器等。以下是在Google Compute Engine中创建高可用性MySQL数据库的高级步骤:
- 创建一个项目
- 创建实例(虚拟机)
- 创建实例组
- 创建防火墙规则以允许VNC访问
- Linux OS配置
- 安装和配置MySQL
- 安装和配置群集
- 创建内部负载均衡器
- 为内部负载均衡器创建防火墙规则
- 测试群集连接
概观
本文将介绍如何在单个Google Cloud区域内创建群集。 群集节点(node1,node2和见证服务器)将全部驻留在“us-central1”区域(10.128.0.0/20网络)中,但您可以相应地选择您的区域。配置如下所示:将使用以下IP地址:
- node1:10.128.0.2
- node2:10.128.0.3
- 见证人:10.128.0.4
- 内部负载均衡器IP:10.128.0.99
- MySQL端口:3306
创建一个项目
首次登录时,您将看到一个空的Home Dashboard,并将被要求创建一个Project。 我们将创建的所有Google Compute Engine资源都属于此Google Cloud Platform项目。 在这里,我们将调用我们新创建的项目“LinuxCluster”:
创建实例(虚拟机)
我们将在本指南中配置3台虚拟机。 前两个VM(我称之为“node1”和“node2”)将作为集群节点运行,能够将MySQL数据库及其相关资源联机。 第三个VM将充当群集的见证服务器,以增强对裂脑的保护。为确保最大可用性,所有3个VM将驻留在该区域内的不同区域中(在此示例中:us-central1-a,us-central1-b,us-central1-c)。
创建“节点1”实例
创建第一个VM实例(“node1”)。 如果这是您第一次创建实例,则屏幕将如下图所示。单击屏幕中央的“创建实例”按钮:如果您已在GCE中运行其他实例,则您的屏幕看起来会有所不同。 仍然,单击“创建实例”继续:默认情况下,默认情况下通常会选择Debian linux。 我们*不要*因为我们将在本指南中使用CentOS 6.X。为实例命名(“node1”),选择我们区域内的第一个区域(a)(us-central1),并确保单击“更改”以选择正确的引导映像。 您可以根据工作负载要求调整实例的大小,但出于本指南的目的,我们将使用默认大小来最小化成本,这是一个相当小的VM(1个vCPU,只有3.75GB RAM)在Boot disk pop中在屏幕上,选择CentOS 6,在底部我们将使用SSD启动盘。 对于本指南而言,10GB就足够了。 您可以相应地调整系统大小:单击“选择”后,您将返回“创建实例”屏幕。 在底部,单击“管理,磁盘,网络,SSH密钥”,因为我们将向VM添加第二个磁盘。 第二个磁盘将用于存储我们的数据库,它将在以后由集群软件复制/同步。 选择“Disks”选项卡,然后单击“Add item”将第二个磁盘添加到此实例:单击“Create disk”:为新磁盘命名,选择所需类型,然后从空白磁盘开始。 在此示例配置中,10 GB应该足以满足我们的需求。 注意:记住您在此处设置的值。 两个群集节点(node1和node2)都需要是SAME SIZE:最后,单击“Networking”选项卡,并为node1提供客户内部IP。 单击“创建”以启动新实例:
创建“node2”
重复上述步骤两次以创建第二个群集节点(“node2”)。 像创建node1一样创建此实例,包括添加第二个磁盘。重要提示:确保它位于不同的区域(us-central1-b)并为其提供唯一的IP(10.128.0.3)
创建“见证”VM
创建第三个VM(“见证”)并确保它位于前两个实例的不同区域(us-central1-c)中。注意:此实例不需要添加额外的磁盘。 您的3个VM实例可能需要一段时间才能进行配置。 完成后,您将在Google云端控制台的VM Instances屏幕上看到您的VM。 验证是否已将每个VM正确启动到其他区域:
创建实例组
在本指南的后面部分,我们将创建一个内部负载均衡器,以将流量路由到活动群集节点。 Google Cloud Platform上可用的所有可能的负载均衡器配置都需要实例组来为负载均衡器发送的流量提供服务。将创建两个实例组,每个实例组将包含一个群集节点。
创建实例组1
为您的第一个实例组命名(“instance-group-1a”),选择“Single-zone”并确保正确选择第一个VM实例所在的区域。 在这里,我们选择us-central-1a,因为那是部署“node1”的地方。 在下面,选择“选择现有实例”并从VM实例下拉列表中选择“node1”:
创建实例组2
再次重复上一步,这次选择第二个节点所在的区域。 us-central-1b和node2:
创建防火墙规则以允许VNC访问
您可以通过导航到以下内容来查看所有现有防火墙规则:网络 – >防火墙规则默认情况下,从外部世界打开到您的VM的“Google防火墙”中打开的唯一端口是ping,SSH(端口22)和RDP(港口3389)。 在本指南的后面,我们将使用VNC访问“node1”的桌面并使用GUI配置集群。 创建防火墙规则以允许VNC访问。 在该指南中使用端口5902。 根据您的VNC配置进行调整。
Linux OS配置
接下来,我们需要配置我们实例的Linux操作系统并在命令行上弄脏,作为Linux管理员,您现在应该习惯这样做。有许多方法可以连接到Linux VM的控制台。 您可以直接从GCE Web界面启动SSH连接,也可以在笔记本电脑/工作站上本地安装Google Cloud SDK。要使用浏览器进行SSH,只需转到计算 – > VM实例,然后转到要连接的VM的右侧,在“连接”下选择“在浏览器窗口中打开”。 如果您希望在笔记本电脑/工作站上本机安装Google Cloud命令行工具,请参阅此处的文档:https://cloud.google.com/sdk/docs/quickstarts连接后,使用“sudo”命令获得root权限:
$ sudo su -
编辑/ etc / hosts
除非您已经设置了DNS服务器,否则您需要在所有3台服务器上创建主机文件条目,以便它们可以通过名称正确地相互解析。将以下行添加到/ etc / hosts文件的末尾:
10.128.0.2 node1 10.128.0.3 node2 10.128.0.4证人 10.128.0.99 mysql-vip
禁用SELinux
编辑/ etc / sysconfig / linux并设置“SELINUX = disabled”:
#vi / etc / sysconfig / selinux #此文件控制系统上SELinux的状态。 #SELINUX =可以采用以下三个值中的一个: #enforcing - 强制执行SELinux安全策略。 #permissive - SELinux打印警告而不是强制执行。 #disabled - 未加载SELinux策略。 SELINUX =禁用 #SELINUXTYPE =可以采用以下两个值之一: #targeted - 目标进程受到保护, #mls - 多级安全保护。 SELINUXTYPE =针对性
安装各种RPM包
接下来,安装一些rpm软件包,稍后将需要这些软件包作为我们的集群软件的先决条件:
#yum install redhat-lsb补丁
安装和配置VNC(及相关软件包)
要访问我们的Linux服务器的GUI,以便稍后配置我们的集群,请在您的集群节点上安装VNC服务器。 在我的设置中,我只在“node1”上执行此操作
#yum install tigervnc-server xterm #vncpasswd #vi / etc / sysconfig / vncservers VNCSERVERS = “2:根” VNCSERVERARGS [2] =“ - 几何1024x768” #service vncserver start #chkconfig vncserver on
通过在笔记本电脑/台式机上打开VNC客户端并连接到群集节点的公共IP来测试连接性
重新启动群集节点
重新启动以禁用SELinux。需要重新启动所有3个系统(node1,node2,见证)。
分区和格式化“数据”磁盘
在VM实例创建期间,为每个群集节点添加了一个额外的磁盘,以存储我们将要保护的应用程序数据。 在这种情况下,它恰好是MySQL数据库。我们的VM的磁盘配置如下:
- / dev / sda – 操作系统磁盘
- / dev / sdb – 数据磁盘
在实例创建/ dev / sdb期间添加了第二个磁盘。 您可以运行“fdisk -l”命令进行验证。 您将看到/ dev / sda(OS)已经有一个磁盘分区并正在使用。
#fdisk -l 磁盘/ dev / sda:10.7 GB,10737418240字节 255个头,63个扇区/轨道,1305个气缸 单位= 16065 * 512 = 8225280字节的柱面 扇区大小(逻辑/物理):512字节/ 4096字节 I / O大小(最小/最佳):4096字节/ 4096字节 磁盘标识符:0x00035e98 设备启动开始结束块ID系统 / dev / sda1 * 1 1306 10484736 83 Linux 磁盘/ dev / sdb:10.7 GB,10737418240字节 64个头,32个扇区/轨道,10240个气缸 单位= 2048 * 512 = 1048576字节的柱面 扇区大小(逻辑/物理):512字节/ 4096字节 I / O大小(最小/最佳):4096字节/ 4096字节 磁盘标识符:0x762b810b
这里我们将创建一个分区(/ dev / sdb1),对其进行格式化,并将其挂载到MySQL的默认位置,即/ var / lib / mysql。 在“node1”和“node2”上执行以下步骤:
#fdisk / dev / sdb 命令(m求助):n 命令行动 扩展 p主分区(1-4) p 分区号(1-4):1 第一个柱面(1-1305,默认值1):<enter> 使用默认值1 最后一个气缸,气缸或尺寸{K,M,G}(1-1305,默认1305):<enter> 使用默认值1305 命令(m求助):w 分区表已被更改! 调用ioctl()重新读取分区表。 同步磁盘。 [root @ node1~]# #mkfs.ext4 / dev / sdb1 #mkdir / var / lib / mysql
在node1上,挂载文件系统:
#mount / dev / sdb1 / var / lib / mysql
安装和配置MySQL
接下来,安装安装MySQL包,初始化示例数据库,并为MySQL设置“root”密码。
在“node1”上:
#yum -y install mysql mysql-server #/ usr / bin / mysql_install_db --datadir =“/ var / lib / mysql /” - user = mysql #mysqld_safe --user = root --socket = / var / lib / mysql / mysql.sock --port = 3306 --datadir = / var / lib / mysql --log& # ##注意:下一个命令允许来自任何主机的远程连接。生产不是一个好主意! #echo“update user set Host ='%'where host ='node1'; flush privileges”| mysql mysql # ##将MySQL的root密码设置为'SIOS' #echo“update user set Password = PASSWORD('SIOS')其中User ='root'; flush特权”| mysql mysql
创建MySQL配置文件。我们将它放在数据磁盘上(稍后将被复制 – /var/lib/mysql/my.cnf)。 例:
#vi /var/lib/mysql/my.cnf 的[mysqld] DATADIR =的/ var / lib中/ MySQL的 插座=的/ var / lib中/ MySQL的/的mysql.sock PID文件=的/ var / lib中/ MySQL的/ mysqld.pid 用户=根 端口= 3306 #建议禁用符号链接以防止出现各种安全风险 符号链接= 0 [mysqld_safe的] 对数误差=的/ var /数/ mysqld.log PID文件= / var / run中/ mysqld的/ mysqld.pid [客户] 用户=根 密码= SIOS
删除位于/ etc中的原始MySQL配置文件(如果存在):
#rm /etc/my.cnf
在“node2”上:
在“node2”上,您只需要安装MySQL软件包。 其他步骤不是必需的:
[root @ node2~] #yum -y install mysql mysql-server
安装和配置群集
此时,我们已准备好安装和配置我们的集群。 SIOS Protection Suite for Linux(又名SPS-Linux)将在本指南中用作群集技术。 它在单个集成解决方案中提供高可用性故障转移群集功能(LifeKeeper)以及实时,块级数据复制(DataKeeper)。 SPS-Linux使您能够部署“SANLess”群集,即“无共享”群集,这意味着群集节点没有任何共享存储,就像Azure VM一样。
安装适用于Linux的SIOS Protection Suite
在所有3个VM(node1,node2,见证)上执行以下步骤:下载SPS-Linux安装映像文件(sps.img),并获取试用许可证或购买永久许可证。 有关更多信息,请联系SIOS。您将环回安装它并以root身份运行“setup”脚本(或首先“sudo su – ”以获取根shell)例如:
#mkdir / tmp / install #mount -o loop sps.img / tmp / install #cd / tmp / install # 。/建立
在安装脚本期间,系统会提示您回答一些问题。 您将在几乎每个屏幕上按Enter键以接受默认值。 请注意以下例外情况:
- 在标题为“High Availability NFS”的屏幕上,您可以选择“n”,因为我们不会创建高可用性NFS服务器
- 在安装脚本结束时,您可以选择立即或稍后安装试用许可证密钥。我们稍后会安装许可证密钥,因此您可以安全地选择“n”
- 在“设置”的最后一个屏幕中,从屏幕上显示的列表中选择要安装的ARK(应用程序恢复工具包,即“群集代理”)。
- 仅在“node1”和“node2”上需要ARK。 你不需要在“见证”上安装
- 使用向上/向下箭头导航列表,然后按空格键选择以下内容:
- lkDR – 适用于Linux的DataKeeper
- lkSQL – LifeKeeper MySQL RDBMS恢复工具包
- 这将导致在“node1”和“node2”上安装以下附加RPM:
- SteelEye公司 – LKDR-9.0.2-6513.noarch.rpm
- SteelEye公司 – lkSQL-9.0.2-6513.noarch.rpm
安装Witness / Quorum包
LifeKeeper(steeleye-lkQWK)的Quorum / Witness服务器支持包与LifeKeeper核心的现有故障转移过程相结合,可以在总体网络故障常见的情况下以更大的可信度进行系统故障转移。这实际上意味着可以在大大降低“裂脑”情况的风险的同时进行故障转移。在所有3个节点(node1,node2,见证)上安装Witness / Quorum rpm:
#cd / tmp / install / quorum #rpm -Uvh steeleye-lkQWK-9.0.2-6513.noarch.rpm
在所有3个节点(node1,node2,见证)上,编辑/ etc / default / LifeKeeper,设置NOBCASTPING = 1仅打开见证服务器(“见证”),编辑/ etc / default / LifeKeeper,设置WITNESS_MODE = off / none
安装许可证密钥
在所有3个节点上,使用“lkkeyins”命令安装从SIOS获取的许可证文件:
#/ opt / LifeKeeper / bin / lkkeyins <path_to_file> / <filename> .lic
启动LifeKeeper
在所有3个节点上,使用“lkstart”命令启动集群软件:
#/ opt / LifeKeeper / bin / lkstart
设置LifeKeeper GUI的用户权限
创建内部负载均衡器
为内部负载均衡器创建防火墙规则
测试群集连接