著者は、Write for DOnationsプログラムの一部として寄付を受け取るためにFree and Open Source Fundを選択しました。
前書き
クラスタリングは、異なるサーバーに変更を配布することにより、データベースに高可用性を追加します。 インスタンスの1つに障害が発生した場合、他のインスタンスはすぐに利用可能になり、サービスを継続できます。
クラスターには、active-passiveとactive-activeの2つの一般的な構成があります。 アクティブ/パッシブクラスタでは、すべての書き込みは単一のアクティブサーバーで行われ、アクティブサーバーに障害が発生した場合にのみ引き継ぐ準備ができている1つ以上のパッシブサーバーにコピーされます。 一部のアクティブ-パッシブクラスターでは、パッシブノードでSELECT
操作も許可されます。 アクティブ/アクティブクラスターでは、すべてのノードが読み取り/書き込みであり、1つに加えられた変更がすべてに複製されます。
MariaDBは、一般的なMySQLRDBMSシステムと完全に互換性のあるオープンソースのリレーショナルデータベースシステムです。 このpageでMariaDBの公式ドキュメントを読むことができます。 Galeraは、同期レプリケーションを使用してマルチマスタークラスターをセットアップできるようにするデータベースクラスタリングソリューションです。 Galeraは、異なるノードのデータの同期を自動的に維持しながら、クラスター内の任意のノードに読み取りおよび書き込みクエリを送信できるようにします。 ガレラについて詳しくは、公式のdocumentation pageをご覧ください。
このガイドでは、アクティブ/アクティブMariaDB Galeraクラスターを構成します。 デモンストレーションのために、クラスター内のノードとして機能する3つのCentOS 7ドロップレットを構成してテストします。 これは、構成可能な最小のクラスターです。
前提条件
従うには、以下に加えて、DigitalOcean accountが必要になります。
-
プライベートネットワークが有効になっている3つのCentOS7ドロップレット。それぞれ、
sudo
特権とファイアウォールが有効になっているroot以外のユーザーがいます。-
3つのドロップレットでプライベートネットワークを設定するには、Private Networking Quickstartガイドに従ってください。
-
sudo
特権を持つroot以外のユーザーの設定については、Initial Server Setup with CentOS 7チュートリアルに従ってください。 ファイアウォールを設定するには、Additional Recommended Steps for New CentOS 7 ServersのConfiguring a Basic Firewallステップを確認してください。
-
このチュートリアルの手順は、DigitalOcean Droplets向けに作成およびテストされていますが、それらの多くは、プライベートネットワークが有効になっている非DigitalOceanサーバーにも適用できるはずです。
[[step-1 -—- adding-the-mariadb-repositories-to-all-servers]] ==ステップ1—すべてのサーバーにMariaDBリポジトリを追加する
このステップでは、関連するMariaDBパッケージリポジトリを3つのサーバーのそれぞれに追加して、このチュートリアルで使用する適切なバージョンのMariaDBをインストールできるようにします。 3つのサーバーすべてでリポジトリが更新されると、MariaDBをインストールする準備が整います。
MariaDBについて注意すべき点の1つは、MySQLのドロップイン置換として作成されたため、多くの構成ファイルと起動スクリプトで、mariadb
ではなくmysql
が表示されることです。 多くの場合、これらは交換可能です。 一貫性を保つために、このガイドではどちらかが機能する場合はmariadb
を使用します。
このチュートリアルでは、MariaDB version 10.4を使用します。 このバージョンはデフォルトのCentOSリポジトリに含まれていないため、MariaDBプロジェクトで管理されている外部CentOSリポジトリを3つのサーバーすべてに追加することから始めます。
[.note]#Note: MariaDBは評判の高いプロバイダーですが、すべての外部リポジトリが信頼できるわけではありません。 信頼できるソースからのみインストールしてください。
#
まず、テキストエディターでリポジトリファイルを作成して、MariaDBリポジトリキーを追加します。 このチュートリアルでは、vi
を使用します。
sudo vi /etc/yum.repos.d/mariadb.repo
次に、i
を押して挿入モードに入り、次の内容をファイルに追加します。
/etc/yum.repos.d/mariadb.repo
[mariadb]
name = MariaDB
baseurl = http://yum.mariadb.org/10.4/centos7-amd64
gpgkey=https://yum.mariadb.org/RPM-GPG-KEY-MariaDB
gpgcheck=1
esc
キーを押して通常モードに戻り、:wq
と入力してファイルを保存して終了します。 テキストエディタvi
とその前身のvim
について詳しく知りたい場合は、Installing and Using the Vim Text Editor on a Cloud Serverに関するチュートリアルをご覧ください。
リポジトリファイルを作成したら、次のコマンドで有効にします。
sudo yum makecache --disablerepo='*' --enablerepo='mariadb'
makecache
コマンドはリポジトリメタデータをキャッシュして、パッケージマネージャーがMariaDBをインストールできるようにします。--disablerepo
と--enablerepo
は、作成したばかりのmariadb
リポジトリファイルにコマンドをターゲティングします。
次の出力が表示されます。
OutputLoaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
mariadb | 2.9 kB 00:00:00
(1/3): mariadb/primary_db | 43 kB 00:00:00
(2/3): mariadb/other_db | 8.3 kB 00:00:00
(3/3): mariadb/filelists_db | 238 kB 00:00:00
Metadata Cache Created
最初のサーバーでリポジトリを有効にしたら、2番目と3番目のサーバーで繰り返します。
3つのサーバーすべてにパッケージリポジトリを正常に追加したので、次のセクションでMariaDBをインストールする準備ができました。
[[step-2 -—- installing-mariadb-on-all-servers]] ==ステップ2—すべてのサーバーへのMariaDBのインストール
このステップでは、実際のMariaDBパッケージを3つのサーバーにインストールします。
バージョン10.1
から、MariaDBサーバーとMariaDB Galeraサーバーのパッケージが結合されるため、MariaDB-server
をインストールすると、Galeraといくつかの依存関係が自動的にインストールされます。
sudo yum install MariaDB-server MariaDB-client
インストールを続行するかどうかの確認を求められます。 yes
と入力して、インストールを続行します。 その後、MariaDBパッケージを認証するGPGキーを受け入れるように求められます。 yes
をもう一度入力します。
インストールが完了したら、次のコマンドを実行してmariadb
サービスを開始します。
sudo systemctl start mariadb
以下を実行して、起動時にmariadb
サービスが自動的に開始されるようにします。
sudo systemctl enable mariadb
MariaDBバージョン10.4
以降、rootMariaDBユーザーはデフォルトでパスワードを持っていません。 rootユーザーのパスワードを設定するには、MariaDBにログインすることから始めます。
sudo mysql -uroot
MariaDBシェルに入ったら、次のステートメントを実行してパスワードを変更し、your_password
を目的のパスワードに置き換えます。
set password = password("your_password");
パスワードが正しく設定されたことを示す次の出力が表示されます。
OutputQuery OK, 0 rows affected (0.001 sec)
次のコマンドを実行して、MariaDBシェルを終了します。
quit;
SQLの詳細を知りたい場合、または簡単な復習が必要な場合は、MySQL tutorialを確認してください。
これで、クラスターの構成を開始するために必要なすべての要素が揃いましたが、後のステップでrsync
とpolicycoreutils-python
に依存してサーバーを同期し、Security-Enhanced Linux(SELinux)を制御することになります。 、先に進む前に、それらがインストールされていることを確認してください。
sudo yum install rsync policycoreutils-python
これにより、rsync
およびpolicycoreutils-python
の最新バージョンがすでに利用可能であることが確認されるか、アップグレードまたはインストールするように求められます。
これらの手順を完了したら、他の2台のサーバーに対して手順を繰り返します。
3つのサーバーのそれぞれにMariaDBが正常にインストールされたので、次のセクションの構成手順に進むことができます。
[[step-3 -—- configuring-the-first-node]] ==ステップ3—最初のノードの構成
このステップでは、最初のGaleraノードを構成します。 クラスター内の各ノードは、ほぼ同一の構成にする必要があります。 このため、最初のマシンですべての構成を行い、それを他のノードにコピーします。
デフォルトでは、MariaDBは/etc/mysql/conf.d
ディレクトリをチェックして、.cnf
で終わるファイルから追加の構成設定を取得するように構成されています。 すべてのクラスター固有のディレクティブを使用して、このディレクトリにファイルを作成します。
sudo vi /etc/my.cnf.d/galera.cnf
次の構成をファイルに追加します。 この構成では、さまざまなクラスターオプション、現在のサーバーとクラスター内の他のサーバーの詳細、およびレプリケーション関連の設定を指定します。 構成内のIPアドレスは、それぞれのサーバーのプライベートアドレスであることに注意してください。強調表示された行を適切なIPアドレスに置き換えます。
/etc/my.cnf.d/galera.cnf
[mysqld]
binlog_format=ROW
default-storage-engine=innodb
innodb_autoinc_lock_mode=2
bind-address=0.0.0.0
# Galera Provider Configuration
wsrep_on=ON
wsrep_provider=/usr/lib64/galera-4/libgalera_smm.so
# Galera Cluster Configuration
wsrep_cluster_name="test_cluster"
wsrep_cluster_address="gcomm://First_Node_IP,Second_Node_IP,Third_Node_IP"
# Galera Synchronization Configuration
wsrep_sst_method=rsync
# Galera Node Configuration
wsrep_node_address="This_Node_IP"
wsrep_node_name="This_Node_Name"
-
The first sectionは、クラスターが正しく機能できるようにするMariaDB / MySQL設定を変更または再アサートします。 たとえば、GaleraはMyISAMまたは同様の非トランザクションストレージエンジンでは機能しません。また、
mysqld
をlocalhost
のIPアドレスにバインドしないでください。 -
The “Galera Provider Configuration” sectionは、WriteSetレプリケーションAPIを提供するMariaDBコンポーネントを構成します。 Galeraはwsrep(WriteSet Replication)プロバイダーであるため、これはあなたの場合はGaleraを意味します。 一般的なパラメーターを指定して、初期レプリケーション環境を構成します。 これにはカスタマイズは必要ありませんが、Galera configuration options hereについて詳しく知ることができます。
-
The “Galera Cluster Configuration” sectionはクラスターを定義し、IPアドレスまたは解決可能なドメイン名でクラスターメンバーを識別し、クラスターの名前を作成して、メンバーが正しいグループに参加するようにします。
wsrep_cluster_name
をtest_cluster
よりも意味のあるものに変更するか、そのままにしておくことができますが、3つのサーバーのプライベートIPアドレスでwsrep_cluster_address
を更新する必要があります。 -
The “Galera Synchronization Configuration” sectionは、クラスターがメンバー間でデータを通信および同期する方法を定義します。 これは、ノードがオンラインになったときに発生する状態転送にのみ使用されます。 初期設定では、
rsync
を使用しています。これは、一般的に利用可能であり、今のところ必要なことを実行するためです。 -
The “Galera Node Configuration” sectionは、現在のサーバーのIPアドレスと名前を明確にします。 これは、ログの問題を診断したり、複数の方法で各サーバーを参照したりするときに役立ちます。
wsrep_node_address
は、使用しているマシンのアドレスと一致する必要がありますが、ログファイルでノードを識別しやすくするために、任意の名前を選択できます。
クラスター構成ファイルに満足したら、内容をクリップボードにコピーし、ファイルを保存して閉じます。
最初のノードを正常に構成したので、次のセクションで残りのノードの構成に進むことができます。
[[step-4 -—- configuring-the-remaining-nodes]] ==ステップ4—残りのノードの構成
この手順では、残りの2つのノードを構成します。 2番目のノードで、構成ファイルを開きます。
sudo vi /etc/mysql/my.cnf.d/galera.cnf
最初のノードからコピーした構成を貼り付けてから、Galera Node Configuration
を更新して、設定している特定のノードのIPアドレスまたは解決可能なドメイン名を使用します。 最後に、名前を更新します。ログファイル内のノードを識別するのに役立つ任意の名前に設定できます。
/etc/mysql/my.cnf.d/galera.cnf
. . .
# Galera Node Configuration
wsrep_node_address="This_Node_IP"
wsrep_node_name="This_Node_Name"
. . .
ファイルを保存して終了します。
これらの手順を完了したら、3番目のノードで繰り返します。
すべてのノードでGaleraを構成すると、クラスターを起動する準備がほぼ整います。 ただし、その前に、ファイアウォールで適切なポートが開いていること、およびGalera用のSELinuxポリシーが作成されていることを確認してください。
[[step-5 -—- opening-the-firewall-on-every-server]] ==ステップ5—すべてのサーバーでファイアウォールを開く
この手順では、ノード間通信に必要なポートが開くようにファイアウォールを構成します。
すべてのサーバーで、次のコマンドを実行して、「前提条件」セクションで設定したファイアウォールのステータスを確認します。
sudo firewall-cmd --list-all
この場合、SSH、DHCP、HTTP、およびHTTPSトラフィックのみが許可されます。
Outputpublic
target: default
icmp-block-inversion: no
interfaces:
sources:
services: ssh dhcpv6-client http https
ports:
protocols:
masquerade: no
forward-ports:
source-ports:
icmp-blocks:
rich rules:
ここでクラスターを開始しようとすると、ファイアウォールがノード間の接続をブロックするため、クラスターが失敗します。 この問題を解決するには、MariaDBとGaleraのトラフィックを許可するルールを追加します。
Galeraは4つのポートを使用できます。
-
3306
mysqldump
メソッドを使用するMariaDBクライアント接続および状態スナップショット転送の場合。 -
4567
GaleraClusterレプリケーショントラフィックの場合。 マルチキャストレプリケーションは、このポートでUDPトランスポートとTCPの両方を使用します。 -
4568
Incremental State TransfersまたはISTの場合、欠落状態がクラスター内の他のノードによって受信されるプロセス。 -
4444
他のすべてのState Snapshot Transfers、つまりSSTの場合、ジョイナーノードがドナーノードから状態とデータを取得するメカニズム。
この例では、セットアップ中に4つのポートすべてを開きます。 複製が機能していることを確認したら、実際に使用していないポートをすべて閉じて、クラスター内のサーバーだけにトラフィックを制限します。
次のコマンドでポートを開きます。
sudo firewall-cmd --permanent --zone=public --add-port=3306/tcp
sudo firewall-cmd --permanent --zone=public --add-port=4567/tcp
sudo firewall-cmd --permanent --zone=public --add-port=4568/tcp
sudo firewall-cmd --permanent --zone=public --add-port=4444/tcp
sudo firewall-cmd --permanent --zone=public --add-port=4567/udp
ここで--zone=public
と--add-port=
を使用して、firewall-cmd
はこれらのポートをパブリックトラフィックに開放しています。 --permanent
は、これらのルールが持続することを保証します。
[.note]#Note:サーバーで実行されている他の機能によっては、すぐにアクセスを制限したい場合があります。 FirewallDの使用方法の詳細については、チュートリアルHow To Set Up a Firewall Using FirewallD on CentOS 7。
#を参照してください。
次に、次のコマンドを実行して、各サーバーをpublic
ゾーンに追加し、強調表示されたテキストをノードのそれぞれのプライベートIPアドレスに置き換えます。
sudo firewall-cmd --permanent --zone=public --add-source=galera-node-1-ip/32
sudo firewall-cmd --permanent --zone=public --add-source=galera-node-2-ip/32
sudo firewall-cmd --permanent --zone=public --add-source=galera-node-3-ip/32
ファイアウォールをリロードして、変更を適用します。
sudo firewall-cmd --reload
最初のノードでファイアウォールを構成したら、2番目と3番目のノードで同じファイアウォール設定を作成します。
ファイアウォールが正常に構成されたので、次のステップでSELinuxポリシーを作成する準備ができました。
[[step-6 -—- creating-a-selinux-policy]] ==ステップ6—SELinuxポリシーの作成
このセクションでは、クラスター内のすべてのノードが相互に通信してクラスター操作を実行できるようにするSELinuxポリシーを作成します。
SELinuxは、アクセス制御と強制アクセス制御ポリシーのサポートにより、オペレーティングシステムのセキュリティを向上させるLinuxカーネルモジュールです。 CentOS 7ではデフォルトで有効になっており、MariaDBデーモンが多くのアクティビティを実行することを制限しています。
ポリシーを作成するには、MySQLに対してpermissiveに設定されたSELinuxモードでクラスターでさまざまなアクティビティを実行します。 次に、ログに記録されたイベントからポリシーを作成し、ポリシーが正常にインストールされたら、最終的にSELinuxモードを強制に設定します。
最初に、3つのサーバーすべてで次のコマンドを実行して、関連するポートへのアクセスを許可します。
sudo semanage port -a -t mysqld_port_t -p tcp 4567
sudo semanage port -a -t mysqld_port_t -p udp 4567
sudo semanage port -a -t mysqld_port_t -p tcp 4568
sudo semanage port -a -t mysqld_port_t -p tcp 4444
[.note]#Note:これらのポートの一部へのアクセスを許可すると、ValueError
を受け取る場合があります。 これは、そのポートのSELinuxステータスがすでに設定されていることを意味します。この場合、このチュートリアルのプロセスには影響しません。
#
これらのコマンドでは、SELinux管理ツールsemanage
を-a
フラグとともに使用して、指定されたポートを追加し、データベースサーバーを無視しています。
次に、3つすべてのサーバーで次のコマンドを実行します。これにより、MySQL SELinuxドメインが一時的に許容モードに設定されます。
sudo semanage permissive -a mysqld_t
このコマンドの完了には1分かかる場合があり、出力は表示されません。
次に、すべてのノードでデータベースサーバーを停止して、共有SELinuxポリシーを使用してデータベースクラスターをブートストラップできるようにします。 これを行うには、3つのノードすべてで次のコマンドを実行します。
sudo systemctl stop mariadb
次に、クラスターをブートストラップして、SELinuxポリシーに追加されるノード間通信イベントを生成します。 最初のノードで、次を実行してクラスターをブートストラップします。
sudo galera_new_cluster
最初のノードで次を実行して、SSTイベントを記録する特定の目的のデータベースとテーブルを作成します。
mysql -u root -p -e 'CREATE DATABASE selinux;
CREATE TABLE selinux.selinux_policy (id INT NOT NULL AUTO_INCREMENT, PRIMARY KEY(id));
INSERT INTO selinux.selinux_policy VALUES ();'
次に、2番目のノードでサーバーを起動します。
sudo systemctl start mariadb
次に、3番目のノードで同じことを行います。
sudo systemctl start mariadb
前のコマンドの出力は表示されません。 ISTイベントを生成するには、3つのサーバーすべてで次を実行します。
mysql -u root -p -e 'INSERT INTO selinux.selinux_policy VALUES ();'
3つのサーバーすべてで次のコマンドを実行して、SELinuxポリシーを作成して有効にします。
sudo grep mysql /var/log/audit/audit.log | sudo audit2allow -M Galera
この最初のコマンドは、audit.log
ファイルで生成されたイベントを検索し、それらをaudit2allow
ツールによって生成されたGalera.pp
という名前のモジュールにパイプします。 これにより、次のような出力が得られます。
Output******************** IMPORTANT ***********************
To make this policy package active, execute:
semodule -i Galera.pp
次に、出力の指示に従い、次のコマンドを使用して生成されたモジュールをインストールします。
sudo semodule -i Galera.pp
ポリシーがアクティブになったので、MariaDBサーバーの許容モードを無効にします。
sudo semanage permissive -d mysqld_t
SELinuxポリシーを正常に作成して有効にしたので、次のセクションでクラスターを開始する準備ができました。
[[step-7 -—- starting-the-cluster]] ==ステップ7—クラスターの開始
この手順では、MariaDBクラスターを起動します。 開始するには、実行中のMariaDBサービスを停止して、クラスターをオンラインにできるようにする必要があります。
3つのサーバーすべてでMariaDBを停止する
MariaDBサービスを停止するときは、サーバーで特定の順序でこのアクションを実行することが重要です。 このシャットダウンシーケンスにより、最初のノードが起動時にクラスターを安全にブートストラップできるようになります。
最初に、3番目のノードで次のコマンドを実行します。
sudo systemctl stop mariadb
次に、2番目のノードでサービスを停止します。
sudo systemctl stop mariadb
最後に、最初のノードでサービスを停止します。
sudo systemctl stop mariadb
systemctl
は、すべてのサービス管理コマンドの結果を表示するわけではないため、成功したことを確認するには、各サーバーで次のコマンドを使用します。
sudo systemctl status mariadb
最後の行は次のようになります。
Output. . .
Apr 26 03:34:23 galera-node-01 systemd[1]: Stopped MariaDB 10.4.4 database server.
すべてのサーバーでmariadb
をシャットダウンしたら、次に進む準備ができています。
最初のノードを起動する
最初のノードを起動するには、特別な起動スクリプトを使用する必要があります。 クラスタを構成した方法で、オンラインになる各ノードは、galera.cnf
ファイルで指定された少なくとも1つの他のノードに接続して、初期状態を取得しようとします。 systemdが--wsrep-new-cluster
パラメータを渡すことを可能にするgalera_new_cluster
スクリプトを使用しないと、最初のノードが接続するために実行されているノードがないため、通常のsystemctl start mariadb
は失敗します。
sudo galera_new_cluster
このコマンドは、実行が成功しても出力を表示しません。 このスクリプトが成功すると、ノードはクラスターの一部として登録され、次のコマンドで表示できます。
mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
クラスター内にノードが1つあることを示す次の出力が表示されます。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 1 |
+--------------------+-------+
残りのノードでは、通常どおりmariadb
を開始できます。 オンラインのクラスターリストのメンバーを検索するため、メンバーが見つかるとクラスターに参加します。
2番目のノードを起動する
これで、2番目のノードを起動できます。 mariadb
を開始します。
sudo systemctl start mariadb
正常に実行されると、出力は表示されません。 各ノードがオンラインになると、クラスターサイズが増加します。
mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
2番目のノードがクラスターに参加し、合計2つのノードがあることを示す次の出力が表示されます。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 2 |
+--------------------+-------+
3番目のノードを起動する
次は、3番目のノードを起動します。 mariadb
を開始します。
sudo systemctl start mariadb
次のコマンドを実行して、クラスターサイズを見つけます。
mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
次の出力が表示されます。これは、3番目のノードがクラスターに参加し、クラスター内のノードの総数が3であることを示しています。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 3 |
+--------------------+-------+
この時点で、クラスター全体がオンラインになり、正常に通信します。 次に、次のセクションで複製をテストすることにより、作業セットアップを確認できます。
[[step-8 -—- testing-replication]] ==ステップ8—レプリケーションのテスト
これまでの手順を実行して、クラスターが任意のノードから他のノードへのレプリケーション(アクティブ/アクティブレプリケーションと呼ばれる)を実行できるようにしました。 次の手順に従って、レプリケーションが期待どおりに機能しているかどうかをテストして確認します。
最初のノードへの書き込み
最初のノードでデータベースを変更することから始めます。 次のコマンドは、playground
というデータベースと、このデータベース内にequipment
というテーブルを作成します。
mysql -u root -p -e 'CREATE DATABASE playground;
CREATE TABLE playground.equipment ( id INT NOT NULL AUTO_INCREMENT, type VARCHAR(50), quant INT, color VARCHAR(25), PRIMARY KEY(id));
INSERT INTO playground.equipment (type, quant, color) VALUES ("slide", 2, "blue");'
前のコマンドで、CREATE DATABASE
ステートメントはplayground
という名前のデータベースを作成します。 CREATE
ステートメントは、id
と呼ばれる自動インクリメント識別子列と他の列を持つplayground
データベース内にequipment
という名前のテーブルを作成します。 type
列、quant
列、およびcolor
列は、それぞれ機器のタイプ、数量、および色を格納するために定義されています。 INSERT
ステートメントは、タイプslide
、数量2
、および色blue
のエントリを挿入します。
これで、テーブルに1つの値ができました。
2番目のノードでの読み取りと書き込み
次に、2番目のノードを見て、複製が機能していることを確認します。
mysql -u root -p -e 'SELECT * FROM playground.equipment;'
レプリケーションが機能している場合、最初のノードで入力したデータは2番目のノードでここに表示されます。
Output+----+-------+-------+-------+
| id | type | quant | color |
+----+-------+-------+-------+
| 1 | slide | 2 | blue |
+----+-------+-------+-------+
この同じノードから、クラスターにデータを書き込むことができます。
mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("swing", 10, "yellow");'
3番目のノードでの読み取りと書き込み
3番目のノードから、テーブルを再度クエリすることにより、このデータをすべて読み取ることができます。
mysql -u root -p -e 'SELECT * FROM playground.equipment;'
2行を示す次の出力が表示されます。
Output +----+-------+-------+--------+
| id | type | quant | color |
+----+-------+-------+--------+
| 1 | slide | 2 | blue |
| 2 | swing | 10 | yellow |
+----+-------+-------+--------+
繰り返しますが、このノードから別の値を追加できます。
mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("seesaw", 3, "green");'
最初のノードで読む
最初のノードに戻って、どこでもデータが利用できることを確認できます。
mysql -u root -p -e 'SELECT * FROM playground.equipment;'
次の出力が表示されます。これは、行が最初のノードで使用可能であることを示しています。
Output +----+--------+-------+--------+
| id | type | quant | color |
+----+--------+-------+--------+
| 1 | slide | 2 | blue |
| 2 | swing | 10 | yellow |
| 3 | seesaw | 3 | green |
+----+--------+-------+--------+
すべてのノードに書き込むことができ、複製が適切に実行されていることを確認しました。
結論
この時点で、動作中の3ノードGaleraテストクラスターが構成されています。 実稼働環境でGaleraクラスターを使用する予定がある場合は、5つ以上のノードから始めることをお勧めします。
本番環境で使用する前に、XtraBackupのようなother state snapshot transfer (SST) agentsのいくつかを確認することをお勧めします。これにより、アクティブノードを大幅に中断することなく、新しいノードを非常に迅速にセットアップできます。 これは実際のレプリケーションには影響しませんが、ノードが初期化される際の懸念事項です。
SQLデータベースについて引き続き学習したい場合は、How To Manage an SQL Databaseの記事をご覧ください。