著者は、Write for DOnationsプログラムの一部として寄付を受け取るためにFree and Open Source Fundを選択しました。
前書き
クラスタリングは、異なるサーバーに変更を配布することにより、データベースに高可用性を追加します。 インスタンスの1つに障害が発生した場合、他のインスタンスはすぐに利用可能になり、サービスを継続できます。
クラスターには、active-passiveとactive-activeの2つの一般的な構成があります。 アクティブ/パッシブクラスタでは、すべての書き込みは単一のアクティブサーバーで行われ、アクティブサーバーに障害が発生した場合にのみ引き継ぐ準備ができている1つ以上のパッシブサーバーにコピーされます。 一部のアクティブ-パッシブクラスターでは、パッシブノードでSELECT
操作も許可されます。 アクティブ/アクティブクラスターでは、すべてのノードが読み取り/書き込みであり、1つに加えられた変更がすべてに複製されます。
MariaDBは、一般的なMySQLRDBMSシステムと完全に互換性のあるオープンソースのリレーショナルデータベースシステムです。 このpageでMariaDBの公式ドキュメントを読むことができます。 Galeraは、同期レプリケーションを使用してマルチマスタークラスターをセットアップできるようにするデータベースクラスタリングソリューションです。 Galeraは、異なるノードのデータの同期を自動的に維持しながら、クラスター内の任意のノードに読み取りおよび書き込みクエリを送信できるようにします。 ガレラについて詳しくは、公式のdocumentation pageをご覧ください。
このガイドでは、アクティブ/アクティブMariaDB Galeraクラスターを構成します。 デモの目的で、クラスター内のノードとして機能する3つのUbuntu 18.04ドロップレットを構成してテストします。 これは、構成可能な最小のクラスターです。
前提条件
従うには、以下に加えて、DigitalOcean accountが必要になります。
-
プライベートネットワークが有効になっている3つのUbuntu18.04ドロップレット。それぞれ、
sudo
権限を持つroot以外のユーザーがいます。-
3つのドロップレットでプライベートネットワークを設定するには、Private Networking Quickstartガイドに従ってください。
-
sudo
特権を持つroot以外のユーザーの設定については、Initial Server Setup with Ubuntu 18.04チュートリアルに従ってください。
-
このチュートリアルの手順は、DigitalOcean Droplets向けに作成およびテストされていますが、それらの多くは、プライベートネットワークが有効になっている非DigitalOceanサーバーにも適用できるはずです。
[[step-1 -—- adding-the-mariadb-repositories-to-all-servers]] ==ステップ1—すべてのサーバーにMariaDBリポジトリを追加する
このステップでは、関連するMariaDBパッケージリポジトリを3つのサーバーのそれぞれに追加して、このチュートリアルで使用する適切なバージョンのMariaDBをインストールできるようにします。 3つのサーバーすべてでリポジトリが更新されると、MariaDBをインストールする準備が整います。
MariaDBについて注意すべき点の1つは、MySQLのドロップイン置換として作成されたため、多くの構成ファイルと起動スクリプトで、mariadb
ではなくmysql
が表示されることです。 一貫性を保つために、このガイドではどちらかが機能する場合はmysql
を使用します。
このチュートリアルでは、MariaDB version 10.4を使用します。 このバージョンはデフォルトのUbuntuリポジトリに含まれていないため、MariaDBプロジェクトで管理されている外部Ubuntuリポジトリを3つのサーバーすべてに追加することから始めます。
[.note]#Note: MariaDBは評判の高いプロバイダーですが、すべての外部リポジトリが信頼できるわけではありません。 信頼できるソースからのみインストールしてください。
#
まず、apt-key
コマンドを使用してMariaDBリポジトリキーを追加します。これは、APTパッケージマネージャーがパッケージが本物であることを確認するために使用します。
sudo apt-key adv --recv-keys --keyserver hkp://keyserver.ubuntu.com:80 0xF1656F24C74CD1D8
データベースに信頼できるキーを取得したら、次のコマンドでリポジトリを追加できます。
sudo add-apt-repository 'deb [arch=amd64] http://nyc2.mirrors.digitalocean.com/mariadb/repo/10.4/ubuntu bionic main'
リポジトリを追加した後、新しいリポジトリからのパッケージマニフェストを含めるためにapt update
を実行します。
sudo apt update
最初のサーバーでこの手順を完了したら、2番目と3番目のサーバーについて繰り返します。
3つのサーバーすべてにパッケージリポジトリを正常に追加したので、次のセクションでMariaDBをインストールする準備ができました。
[[step-2 -—- installing-mariadb-on-all-servers]] ==ステップ2—すべてのサーバーへのMariaDBのインストール
このステップでは、実際のMariaDBパッケージを3つのサーバーにインストールします。
バージョン10.1
から、MariaDBサーバーとMariaDB Galeraサーバーのパッケージが結合されるため、mariadb-server
をインストールすると、Galeraといくつかの依存関係が自動的にインストールされます。
sudo apt install mariadb-server
インストールを続行するかどうかの確認を求められます。 yes
と入力して、インストールを続行します。
MariaDBバージョン10.4
以降、rootMariaDBユーザーはデフォルトでパスワードを持っていません。 rootユーザーのパスワードを設定するには、MariaDBにログインすることから始めます。
sudo mysql -uroot
MariaDBシェルに入ったら、次のステートメントを実行してパスワードを変更します。
set password = password("your_password");
パスワードが正しく設定されたことを示す次の出力が表示されます。
OutputQuery OK, 0 rows affected (0.001 sec)
次のコマンドを実行して、MariaDBシェルを終了します。
quit;
SQLの詳細を知りたい場合、または簡単な復習が必要な場合は、MySQL tutorialを確認してください。
これで、クラスターの構成を開始するために必要なすべての要素が揃いましたが、後の手順でrsync
に依存するため、クラスターがインストールされていることを確認してください。
sudo apt install rsync
これにより、最新バージョンのrsync
がすでに利用可能であることが確認されるか、アップグレードまたはインストールするように求められます。
MariaDBをインストールし、最初のサーバーにルートパスワードを設定したら、他の2つのサーバーに対してこれらの手順を繰り返します。
3つのサーバーのそれぞれにMariaDBが正常にインストールされたので、次のセクションの構成手順に進むことができます。
[[step-3 -—- configuring-the-first-node]] ==ステップ3—最初のノードの構成
この手順では、最初のノードを構成します。 クラスター内の各ノードは、ほぼ同一の構成にする必要があります。 このため、最初のマシンですべての構成を行い、それを他のノードにコピーします。
デフォルトでは、MariaDBは/etc/mysql/conf.d
ディレクトリをチェックして、.cnf
で終わるファイルから追加の構成設定を取得するように構成されています。 すべてのクラスター固有のディレクティブを使用して、このディレクトリにファイルを作成します。
sudo nano /etc/mysql/conf.d/galera.cnf
次の構成をファイルに追加します。 この構成では、さまざまなクラスターオプション、現在のサーバーとクラスター内の他のサーバーの詳細、およびレプリケーション関連の設定を指定します。 構成内のIPアドレスは、それぞれのサーバーのプライベートアドレスであることに注意してください。強調表示された行を適切なIPアドレスに置き換えます。
/etc/mysql/conf.d/galera.cnf
[mysqld]
binlog_format=ROW
default-storage-engine=innodb
innodb_autoinc_lock_mode=2
bind-address=0.0.0.0
# Galera Provider Configuration
wsrep_on=ON
wsrep_provider=/usr/lib/galera/libgalera_smm.so
# Galera Cluster Configuration
wsrep_cluster_name="test_cluster"
wsrep_cluster_address="gcomm://First_Node_IP,Second_Node_IP,Third_Node_IP"
# Galera Synchronization Configuration
wsrep_sst_method=rsync
# Galera Node Configuration
wsrep_node_address="This_Node_IP"
wsrep_node_name="This_Node_Name"
-
The first sectionは、クラスターが正しく機能できるようにするMariaDB / MySQL設定を変更または再アサートします。 たとえば、GaleraはMyISAMまたは同様の非トランザクションストレージエンジンでは機能しません。また、
mysqld
をlocalhost
のIPアドレスにバインドしないでください。 設定については、Galera Clustersystem configuration pageで詳しく知ることができます。 -
The “Galera Provider Configuration” sectionは、WriteSetレプリケーションAPIを提供するMariaDBコンポーネントを構成します。 Galeraはwsrep(WriteSet Replication)プロバイダーであるため、これはあなたの場合はGaleraを意味します。 一般的なパラメーターを指定して、初期レプリケーション環境を構成します。 これにはカスタマイズは必要ありませんが、Galera configuration optionsについて詳しく知ることができます。
-
The “Galera Cluster Configuration” sectionはクラスターを定義し、IPアドレスまたは解決可能なドメイン名でクラスターメンバーを識別し、クラスターの名前を作成して、メンバーが正しいグループに参加するようにします。
wsrep_cluster_name
をtest_cluster
よりも意味のあるものに変更するか、そのままにしておくことができますが、3つのサーバーのプライベートIPアドレスでwsrep_cluster_address
を更新する必要があります。 -
The “Galera Synchronization Configuration” sectionは、クラスターがメンバー間でデータを通信および同期する方法を定義します。 これは、ノードがオンラインになったときに発生する状態転送にのみ使用されます。 初期設定では、
rsync
を使用しています。これは、一般的に利用可能であり、今のところ必要なことを実行するためです。 -
The “Galera Node Configuration” sectionは、現在のサーバーのIPアドレスと名前を明確にします。 これは、ログの問題を診断したり、複数の方法で各サーバーを参照したりするときに役立ちます。
wsrep_node_address
は、使用しているマシンのアドレスと一致する必要がありますが、ログファイルでノードを識別しやすくするために、任意の名前を選択できます。
クラスター構成ファイルに満足したら、内容をクリップボードにコピーし、ファイルを保存して閉じます。 nanoテキストエディタでは、CTRL+X
を押し、y
と入力し、ENTER
を押すことでこれを行うことができます。
最初のノードを正常に構成したので、次のセクションで残りのノードの構成に進むことができます。
[[step-4 -—- configuring-the-remaining-nodes]] ==ステップ4—残りのノードの構成
この手順では、残りの2つのノードを構成します。 2番目のノードで、構成ファイルを開きます。
sudo nano /etc/mysql/conf.d/galera.cnf
最初のノードからコピーした構成を貼り付けてから、Galera Node Configuration
を更新して、設定している特定のノードのIPアドレスまたは解決可能なドメイン名を使用します。 最後に、名前を更新します。ログファイル内のノードを識別するのに役立つ任意の名前に設定できます。
/etc/mysql/conf.d/galera.cnf
. . .
# Galera Node Configuration
wsrep_node_address="This_Node_IP"
wsrep_node_name="This_Node_Name"
. . .
ファイルを保存して終了します。
これらの手順を完了したら、3番目のノードで繰り返します。
クラスタを起動する準備はほぼ整いましたが、実行する前に、ファイアウォールで適切なポートが開いていることを確認してください。
[[step-5 -—- opening-the-firewall-on-every-server]] ==ステップ5—すべてのサーバーでファイアウォールを開く
この手順では、ノード間通信に必要なポートが開くようにファイアウォールを構成します。 すべてのサーバーで、次を実行してファイアウォールのステータスを確認します。
sudo ufw status
この場合、SSHのみが許可されます:
OutputStatus: active
To Action From
-- ------ ----
OpenSSH ALLOW Anywhere
OpenSSH (v6) ALLOW Anywhere (v6)
この場合、SSHトラフィックのみが許可されるため、MySQLおよびGaleraトラフィックのルールを追加する必要があります。 クラスターを起動しようとした場合、ファイアウォールルールが原因で失敗します。
Galeraは4つのポートを使用できます。
-
3306
mysqldump
メソッドを使用するMySQLクライアント接続および状態スナップショット転送の場合。 -
4567
GaleraClusterレプリケーショントラフィックの場合。 マルチキャストレプリケーションは、このポートでUDPトランスポートとTCPの両方を使用します。 -
4568
インクリメンタル状態転送の場合。 -
4444
他のすべての状態スナップショット転送の場合。
この例では、セットアップ中に4つのポートすべてを開きます。 複製が機能していることを確認したら、実際に使用していないポートをすべて閉じて、クラスター内のサーバーだけにトラフィックを制限します。
次のコマンドでポートを開きます。
sudo ufw allow 3306,4567,4568,4444/tcp
sudo ufw allow 4567/udp
[.note]#Note:サーバーで実行されている他の機能によっては、すぐにアクセスを制限したい場合があります。 UFW Essentials: Common Firewall Rules and Commandsガイドがこれに役立ちます。
#
最初のノードでファイアウォールを構成したら、2番目と3番目のノードで同じファイアウォール設定を作成します。
ファイアウォールが正常に構成されたので、次のステップでクラスターを開始する準備ができました。
[[step-6 -—- starting-the-cluster]] ==ステップ6—クラスターの開始
この手順では、MariaDBクラスターを起動します。 開始するには、実行中のMariaDBサービスを停止して、クラスターをオンラインにできるようにする必要があります。
3つのサーバーすべてでMariaDBを停止する
3つのサーバーすべてで次のコマンドを使用してMariaDBを停止し、クラスター内でそれらを再起動できるようにします。
sudo systemctl stop mysql
systemctl
は、すべてのサービス管理コマンドの結果を表示するわけではないため、成功したことを確認するには、次のコマンドを使用します。
sudo systemctl status mysql
最後の行が次のようになっている場合、コマンドは成功しています。
Output. . .
Apr 26 03:34:23 galera-node-01 systemd[1]: Stopped MariaDB 10.4.4 database server.
すべてのサーバーでmysql
をシャットダウンしたら、次に進む準備ができています。
最初のノードを起動する
最初のノードを起動するには、特別な起動スクリプトを使用する必要があります。 クラスタを構成した方法で、オンラインになる各ノードは、galera.cnf
ファイルで指定された少なくとも1つの他のノードに接続して、初期状態を取得しようとします。 systemdが--wsrep-new-cluster
パラメータを渡すことを可能にするgalera_new_cluster
スクリプトを使用しないと、最初のノードが接続するために実行されているノードがないため、通常のsystemctl start mysql
は失敗します。
sudo galera_new_cluster
このコマンドは、実行が成功しても出力を表示しません。 このスクリプトが成功すると、ノードはクラスターの一部として登録され、次のコマンドで表示できます。
mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
クラスター内にノードが1つあることを示す次の出力が表示されます。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 1 |
+--------------------+-------+
残りのノードでは、通常どおりmysql
を開始できます。 オンラインのクラスターリストのメンバーを検索するため、メンバーが見つかるとクラスターに参加します。
2番目のノードを起動する
これで、2番目のノードを起動できます。 mysql
を開始します。
sudo systemctl start mysql
正常に実行されると、出力は表示されません。 各ノードがオンラインになると、クラスターサイズが増加します。
mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
2番目のノードがクラスターに参加し、合計2つのノードがあることを示す次の出力が表示されます。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 2 |
+--------------------+-------+
3番目のノードを起動する
次は、3番目のノードを起動します。 mysql
を開始します。
sudo systemctl start mysql
次のコマンドを実行して、クラスターサイズを見つけます。
mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
次の出力が表示されます。これは、3番目のノードがクラスターに参加し、クラスター内のノードの総数が3であることを示しています。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 3 |
+--------------------+-------+
この時点で、クラスター全体がオンラインになり、正常に通信します。 次に、次のセクションで複製をテストすることにより、作業セットアップを確認できます。
[[step-7 -—- testing-replication]] ==ステップ7—レプリケーションのテスト
これまでの手順を実行して、クラスターが任意のノードから他のノードへのレプリケーション(アクティブ/アクティブレプリケーションと呼ばれる)を実行できるようにしました。 以下の手順に従って、レプリケーションが期待どおりに機能しているかどうかをテストして確認します。
最初のノードへの書き込み
最初のノードでデータベースを変更することから始めます。 次のコマンドは、playground
というデータベースと、このデータベース内にequipment
というテーブルを作成します。
mysql -u root -p -e 'CREATE DATABASE playground;
CREATE TABLE playground.equipment ( id INT NOT NULL AUTO_INCREMENT, type VARCHAR(50), quant INT, color VARCHAR(25), PRIMARY KEY(id));
INSERT INTO playground.equipment (type, quant, color) VALUES ("slide", 2, "blue");'
前のコマンドで、CREATE DATABASE
ステートメントはplayground
という名前のデータベースを作成します。 CREATE
ステートメントは、id
と呼ばれる自動インクリメント識別子列と他の列を持つplayground
データベース内にequipment
という名前のテーブルを作成します。 type
列、quant
列、およびcolor
列は、それぞれ機器のタイプ、数量、および色を格納するために定義されています。 INSERT
ステートメントは、タイプslide
、数量2
、および色blue
のエントリを挿入します。
これで、テーブルに1つの値ができました。
2番目のノードでの読み取りと書き込み
次に、2番目のノードを見て、複製が機能していることを確認します。
mysql -u root -p -e 'SELECT * FROM playground.equipment;'
レプリケーションが機能している場合、最初のノードで入力したデータは2番目のノードでここに表示されます。
Output+----+-------+-------+-------+
| id | type | quant | color |
+----+-------+-------+-------+
| 1 | slide | 2 | blue |
+----+-------+-------+-------+
この同じノードから、クラスターにデータを書き込むことができます。
mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("swing", 10, "yellow");'
3番目のノードでの読み取りと書き込み
3番目のノードから、テーブルを再度クエリすることにより、このデータをすべて読み取ることができます。
mysql -u root -p -e 'SELECT * FROM playground.equipment;'
2行を示す次の出力が表示されます。
Output +----+-------+-------+--------+
| id | type | quant | color |
+----+-------+-------+--------+
| 1 | slide | 2 | blue |
| 2 | swing | 10 | yellow |
+----+-------+-------+--------+
繰り返しますが、このノードから別の値を追加できます。
mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("seesaw", 3, "green");'
最初のノードで読む:
最初のノードに戻って、どこでもデータが利用できることを確認できます。
mysql -u root -p -e 'SELECT * FROM playground.equipment;'
行が最初のノードで利用可能であることを示す次の出力が表示されます。
Output +----+--------+-------+--------+
| id | type | quant | color |
+----+--------+-------+--------+
| 1 | slide | 2 | blue |
| 2 | swing | 10 | yellow |
| 3 | seesaw | 3 | green |
+----+--------+-------+--------+
すべてのノードに書き込むことができ、複製が適切に実行されていることを確認しました。
結論
この時点で、動作中の3ノードGaleraテストクラスターが構成されています。 実稼働環境でGaleraクラスターを使用する予定がある場合は、5つ以上のノードから始めることをお勧めします。
本番環境で使用する前に、xtrabackupのようなother state snapshot transfer (sst) agentsのいくつかを確認することをお勧めします。これにより、アクティブノードを大幅に中断することなく、新しいノードを非常に迅速にセットアップできます。 これは実際のレプリケーションには影響しませんが、ノードが初期化される際の懸念事項です。
MySQL Clusterなどの他のクラスタリングソリューションにも興味があるかもしれません。その場合は、チュートリアルHow To Create a Multi-Node MySQL Cluster on Ubuntu 18.04チュートリアルを確認できます。