著者はhttps://www.brightfunds.org/funds/foss-nonprofits [無料およびオープンソース基金]を選択して、https://do.co/w4do-cta [Donationsのために書く]の一部として寄付を受け取りましたプログラム。
前書き
クラスタリングは、異なるサーバーに変更を配布することにより、データベースに高可用性を追加します。 インスタンスの1つに障害が発生した場合、他のインスタンスはすぐに利用可能になり、サービスを継続できます。
クラスターには、_active-passive_と_active-active_の2つの一般的な構成があります。 アクティブ/パッシブクラスタでは、すべての書き込みは単一のアクティブサーバーで行われ、アクティブサーバーに障害が発生した場合にのみ引き継ぐ準備ができている1つ以上のパッシブサーバーにコピーされます。 一部のアクティブ/パッシブクラスターでは、パッシブノードでの「+ SELECT +」操作も可能です。 アクティブ/アクティブクラスターでは、すべてのノードが読み取り/書き込みであり、1つに加えられた変更がすべてに複製されます。
MariaDBは、一般的なMySQL RDBMSシステムと完全に互換性のあるオープンソースのリレーショナルデータベースシステムです。 このhttps://mariadb.com/kb/en/library/documentation/[page]でMariaDBの公式ドキュメントを読むことができます。 Galeraは、同期レプリケーションを使用してマルチマスタークラスターをセットアップできるデータベースクラスタリングソリューションです。 Galeraは、異なるノードのデータの同期を自動的に維持しながら、クラスター内の任意のノードに読み取りおよび書き込みクエリを送信できるようにします。 Galeraの詳細については、公式のhttp://galeracluster.com/library/documentation/ [ドキュメントページ]をご覧ください。
このガイドでは、アクティブ/アクティブMariaDB Galeraクラスターを構成します。 デモンストレーションのために、クラスター内のノードとして機能する3つのDebian 9ドロップレットを構成してテストします。 これは、構成可能な最小のクラスターです。
前提条件
これに従うには、次のほかにhttps://cloud.digitalocean.com/registrations/new[DigitalOceanアカウント]が必要です。
-
プライベートネットワーキングが有効化された3つのDebian 9ドロップレット。それぞれが「+ sudo +」特権を持つ非ルートユーザーです。
-
3つのDropletでプライベートネットワークを設定するには、https://www.digitalocean.com/docs/networking/private-networking/quickstart/ [Private Networking Quickstart]ガイドに従ってください。
-
`+ sudo +`特権を持つ非rootユーザーのセットアップについては、https://www.digitalocean.com/community/tutorials/initial-server-setup-with-debian-9 [Debian 9での初期サーバー設定]チュートリアル。
このチュートリアルの手順は、DigitalOcean Droplets向けに作成およびテストされていますが、それらの多くは、プライベートネットワークが有効になっている非DigitalOceanサーバーにも適用できるはずです。
手順1-MariaDBリポジトリをすべてのサーバーに追加する
このステップでは、関連するMariaDBパッケージリポジトリを3つのサーバーのそれぞれに追加して、このチュートリアルで使用する適切なバージョンのMariaDBをインストールできるようにします。 3つのサーバーすべてでリポジトリが更新されると、MariaDBをインストールする準備が整います。
MariaDBの注意点の1つは、MySQLのドロップイン置換として作成されたため、多くの構成ファイルと起動スクリプトでは、「+ mariadb 」ではなく「 mysql 」が表示されることです。 一貫性を保つため、このガイドではどちらかが機能する場合に「 mysql +」を使用します。
このチュートリアルでは、https://mariadb.com/kb/en/library/mariadb-1040-release-notes/ [MariaDBバージョン10.4]を使用します。 このバージョンはデフォルトのDebianリポジトリに含まれていないため、MariaDBプロジェクトが管理する外部Debianリポジトリを3つのサーバーすべてに追加することから始めます。
リポジトリを追加するには、最初に `+ dirmngr `および ` software-properties-common `パッケージをインストールする必要があります。 ` dirmngr `は、リポジトリの証明書とキーを管理するためのサーバーです。 ` software-properties-common +`は、ソースリポジトリの場所を簡単に追加および更新できるパッケージです。 次を実行して2つのパッケージをインストールします。
sudo apt install dirmngr software-properties-common
MariaDBリポジトリキーを追加するには、 `+ apt-key +`コマンドを使用します。APTパッケージマネージャーは、パッケージが本物であることを確認するために使用します。
sudo apt-key adv --recv-keys --keyserver hkp://keyserver.ubuntu.com:80 0xF1656F24C74CD1D8
データベースに信頼できるキーを取得したら、次のコマンドでリポジトリを追加できます。
sudo add-apt-repository 'deb [arch=amd64] http://nyc2.mirrors.digitalocean.com/mariadb/repo/10.4/debian stretch main'
リポジトリを追加した後、新しいリポジトリからパッケージマニフェストを含めるために `+ apt update +`を実行します。
sudo apt update
最初のサーバーでこの手順を完了したら、2番目と3番目のサーバーについて繰り返します。
3つのサーバーすべてにパッケージリポジトリを正常に追加したので、次のセクションでMariaDBをインストールする準備ができました。
ステップ2-すべてのサーバーにMariaDBをインストールする
このステップでは、実際のMariaDBパッケージを3つのサーバーにインストールします。
バージョン `+ 10.1 `以降、MariaDBサーバーとMariaDB Galeraサーバーパッケージが結合されているため、 ` mariadb-server +`をインストールすると、Galeraといくつかの依存関係が自動的にインストールされます。
sudo apt install mariadb-server
インストールを続行するかどうかの確認を求められます。 インストールを続行するには、「+ yes +」と入力します。
MariaDBバージョン `+ 10.4 +`以降、* root * MariaDBユーザーにはデフォルトでパスワードがありません。 * root *ユーザーのパスワードを設定するには、MariaDBにログインすることから始めます。
sudo mysql -uroot
MariaDBシェルに入ったら、次のステートメントを実行してパスワードを変更します。
set password = password("");
パスワードが正しく設定されたことを示す次の出力が表示されます。
OutputQuery OK, 0 rows affected (0.001 sec)
次のコマンドを実行して、MariaDBシェルを終了します。
quit;
SQLの詳細を知りたい場合やクイックリフレッシャーが必要な場合は、https://www.digitalocean.com/community/tutorials/a-basic-mysql-tutorial [MySQLチュートリアル]をご覧ください。
これでクラスターの構成を開始するために必要なすべての要素が揃いましたが、後の手順で「+ rsync +」に依存するため、インストールされていることを確認してください。
sudo apt install rsync
これにより、最新バージョンの `+ rsync +`がすでに利用可能であることを確認するか、アップグレードまたはインストールするように求められます。
MariaDBをインストールし、最初のサーバーにルートパスワードを設定したら、他の2つのサーバーに対してこれらの手順を繰り返します。
3つのサーバーのそれぞれにMariaDBが正常にインストールされたので、次のセクションの構成手順に進むことができます。
手順3-最初のノードの構成
この手順では、最初のノードを構成します。 クラスター内の各ノードは、ほぼ同一の構成にする必要があります。 このため、最初のマシンですべての構成を行い、それを他のノードにコピーします。
デフォルトでは、MariaDBは、「。etc / mysql / conf.d +」ディレクトリをチェックして、「。cnf +」で終わるファイルから追加の設定を取得するように設定されています。 すべてのクラスター固有のディレクティブを使用して、このディレクトリにファイルを作成します。
sudo nano /etc/mysql/conf.d/galera.cnf
次の構成をファイルに追加します。 この構成では、さまざまなクラスターオプション、現在のサーバーとクラスター内の他のサーバーの詳細、およびレプリケーション関連の設定を指定します。 構成内のIPアドレスは、それぞれのサーバーのプライベートアドレスであることに注意してください。強調表示された行を適切なIPアドレスに置き換えます。
/etc/mysql/conf.d/galera.cnf
[mysqld]
binlog_format=ROW
default-storage-engine=innodb
innodb_autoinc_lock_mode=2
bind-address=0.0.0.0
# Galera Provider Configuration
wsrep_on=ON
wsrep_provider=/usr/lib/galera/libgalera_smm.so
# Galera Cluster Configuration
wsrep_cluster_name="test_cluster"
wsrep_cluster_address="gcomm://,,"
# Galera Synchronization Configuration
wsrep_sst_method=rsync
# Galera Node Configuration
wsrep_node_address=""
wsrep_node_name=""
-
*最初のセクション*は、クラスターが正しく機能するようにするMariaDB / MySQL設定を変更または再アサートします。 たとえば、GaleraはMyISAMまたは同様の非トランザクションストレージエンジンでは動作しません。また、「+ mysqld 」を「 localhost +」のIPアドレスにバインドしないでください。 設定について詳しくは、Galera Cluster http://galeracluster.com/documentation-webpages/configuration.html [システム構成ページ]をご覧ください。
-
*「Galeraプロバイダーの構成」セクション*は、WriteSetレプリケーションAPIを提供するMariaDBコンポーネントを構成します。 Galeraは_wsrep_(WriteSet Replication)プロバイダーであるため、これはGaleraを意味します。 一般的なパラメーターを指定して、初期レプリケーション環境を構成します。 これにはカスタマイズは必要ありませんが、http://www.codership.com/wiki/doku.php?id = galera_parameters [Galera設定オプション]の詳細をご覧ください。
-
*「Galera Cluster Configuration」セクション*はクラスターを定義し、IPアドレスまたは解決可能なドメイン名でクラスターメンバーを識別し、クラスターの名前を作成して、メンバーが正しいグループに参加するようにします。 `+ wsrep_cluster_name `を ` test_cluster `よりも意味のあるものに変更するか、そのままにすることができますが、3つのサーバーのプライベートIPアドレスで ` wsrep_cluster_address +`を更新する必要があります。
-
*「Galera Synchronization Configuration」セクション*では、クラスターがメンバー間でデータを通信および同期する方法を定義しています。 これは、ノードがオンラインになったときに発生する状態転送にのみ使用されます。 初期セットアップでは、 `+ rsync +`を使用しています。これは、一般に利用可能であり、今必要なことを行うためです。
-
*「Galera Node Configuration」セクション*では、現在のサーバーのIPアドレスと名前を明確にします。 これは、ログの問題を診断したり、複数の方法で各サーバーを参照したりするときに役立ちます。 `+ wsrep_node_address +`は現在使用しているマシンのアドレスと一致する必要がありますが、ログファイルでノードを識別するのに役立つ任意の名前を選択できます。
クラスター構成ファイルに満足したら、内容をクリップボードにコピーし、ファイルを保存して閉じます。 nanoテキストエディターでは、 `+ CTRL + X `を押し、 ` y `を入力し、 ` ENTER +`を押すことでこれを行うことができます。
最初のノードを正常に構成したので、次のセクションで残りのノードの構成に進むことができます。
手順4-残りのノードの構成
この手順では、残りの2つのノードを構成します。 2番目のノードで、構成ファイルを開きます。
sudo nano /etc/mysql/conf.d/galera.cnf
最初のノードからコピーした設定を貼り付け、「+ Galera Node Configuration +」を更新して、設定している特定のノードのIPアドレスまたは解決可能なドメイン名を使用します。 最後に、名前を更新します。ログファイル内のノードを識別するのに役立つ任意の名前に設定できます。
/etc/mysql/conf.d/galera.cnf
. . .
# Galera Node Configuration
wsrep_node_address=""
wsrep_node_name=""
. . .
ファイルを保存して終了します。
これらの手順を完了したら、3番目のノードで繰り返します。
クラスタを起動する準備はほぼ整いましたが、実行する前に、ファイアウォールで適切なポートが開いていることを確認してください。
ステップ5-すべてのサーバーでファイアウォールを開く
この手順では、ノード間通信に必要なポートが開くようにファイアウォールを構成します。 すべてのサーバーで、次を実行してファイアウォールのステータスを確認します。
sudo ufw status
この場合、SSHのみが許可されます:
OutputStatus: active
To Action From
-- ------ ----
OpenSSH ALLOW Anywhere
OpenSSH (v6) ALLOW Anywhere (v6)
この場合、SSHトラフィックのみが許可されるため、MySQLおよびGaleraトラフィックのルールを追加する必要があります。 クラスターを起動しようとした場合、ファイアウォールルールが原因で失敗します。
Galeraは4つのポートを使用できます。
-
+ 3306 +
`+ mysqldump +`メソッドを使用するMySQLクライアント接続および状態スナップショット転送用。 -
+ 4567 +
Galera Clusterレプリケーショントラフィック用。 マルチキャストレプリケーションは、このポートでUDPトランスポートとTCPの両方を使用します。 -
`+ 4568 +`増分状態転送用。
-
`+ 4444 +`他のすべての状態スナップショット転送。
この例では、セットアップ中に4つのポートすべてを開きます。 レプリケーションが機能していることを確認したら、実際に使用していないポートをすべて閉じて、クラスター内のサーバーだけにトラフィックを制限します。
次のコマンドでポートを開きます。
sudo ufw allow 3306,4567,4568,4444/tcp
sudo ufw allow 4567/udp
最初のノードでファイアウォールを構成したら、2番目と3番目のノードで同じファイアウォール設定を作成します。
ファイアウォールが正常に構成されたので、次のステップでクラスターを開始する準備ができました。
ステップ6-クラスターの開始
この手順では、MariaDBクラスターを起動します。 開始するには、実行中のMariaDBサービスを停止して、クラスターをオンラインにできるようにする必要があります。
3つのサーバーすべてでMariaDBを停止する
3つのサーバーすべてで次のコマンドを使用してMariaDBを停止し、クラスター内でそれらを再起動できるようにします。
sudo systemctl stop mysql
`+ systemctl +`はすべてのサービス管理コマンドの結果を表示するわけではないため、成功するためには次のコマンドを使用します。
sudo systemctl status mysql
最後の行が次のようになっている場合、コマンドは成功しています。
Output. . .
Apr 26 03:34:23 galera-node-01 systemd[1]: Stopped MariaDB 10.4.4 database server.
すべてのサーバーで「+ mysql +」をシャットダウンしたら、準備が整います。
最初のノードを起動する
最初のノードを起動するには、特別な起動スクリプトを使用する必要があります。 クラスターの設定方法では、オンラインになる各ノードは、 `+ galera.cnf `ファイルで指定された少なくとも1つの他のノードに接続して、初期状態を取得しようとします。 systemdが `-wsrep-new-cluster `パラメータを渡すことができる ` galera_new_cluster `スクリプトを使用しないと、接続する最初のノードで実行されているノードがないため、通常の ` systemctl start mysql +`は失敗します。
sudo galera_new_cluster
このコマンドは、実行が成功しても出力を表示しません。 このスクリプトが成功すると、ノードはクラスターの一部として登録され、次のコマンドで表示できます。
mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
クラスター内にノードが1つあることを示す次の出力が表示されます。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 1 |
+--------------------+-------+
残りのノードでは、「+ mysql」を通常どおり起動できます。 オンラインのクラスターリストのメンバーを検索するため、メンバーが見つかるとクラスターに参加します。
2番目のノードを起動する
これで、2番目のノードを起動できます。 `+ mysql`を起動します:
sudo systemctl start mysql
正常に実行されると、出力は表示されません。 各ノードがオンラインになると、クラスターサイズが増加します。
mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
2番目のノードがクラスターに参加し、合計2つのノードがあることを示す次の出力が表示されます。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 2 |
+--------------------+-------+
3番目のノードを起動する
ここで、3番目のノードを起動します。 `+ mysql`を起動します:
sudo systemctl start mysql
次のコマンドを実行して、クラスターサイズを見つけます。
mysql -u root -p -e "SHOW STATUS LIKE 'wsrep_cluster_size'"
次の出力が表示されます。これは、3番目のノードがクラスターに参加し、クラスター内のノードの総数が3であることを示しています。
Output+--------------------+-------+
| Variable_name | Value |
+--------------------+-------+
| wsrep_cluster_size | 3 |
+--------------------+-------+
この時点で、クラスター全体がオンラインになり、正常に通信します。 次に、次のセクションで複製をテストすることにより、作業セットアップを確認できます。
手順7-レプリケーションのテスト
これまでの手順を実行して、クラスターが任意のノードから他のノードへの複製(アクティブ-アクティブ複製)を実行できるようにしました。 以下の手順に従って、レプリケーションが期待どおりに機能しているかどうかをテストして確認します。
最初のノードへの書き込み
最初のノードでデータベースを変更することから始めます。 次のコマンドは、「+ playground 」というデータベースと、このデータベース内に「 equipment +」というテーブルを作成します。
mysql -u root -p -e 'CREATE DATABASE playground;
CREATE TABLE playground.equipment ( id INT NOT NULL AUTO_INCREMENT, type VARCHAR(50), quant INT, color VARCHAR(25), PRIMARY KEY(id));
INSERT INTO playground.equipment (type, quant, color) VALUES ("slide", 2, "blue");'
前のコマンドで、 + CREATE DATABASE`ステートメントは
+ playground + `という名前のデータベースを作成します。 「+ CREATE 」ステートメントは、「 id 」と呼ばれる自動インクリメント識別子列と他の列を持つ「 playground 」データベース内に「 equipment」という名前のテーブルを作成します。 「+ type 」列、「 quant 」列、および「 color 」列は、それぞれ機器のタイプ、数量、および色を格納するために定義されています。 「 INSERT 」ステートメントは、タイプ「 slide 」、数量「+2」、および色「+ blue +」のエントリを挿入します。
これで、テーブルに1つの値ができました。
2番目のノードでの読み取りと書き込み
次に、2番目のノードを見て、複製が機能していることを確認します。
mysql -u root -p -e 'SELECT * FROM playground.equipment;'
レプリケーションが機能している場合、最初のノードで入力したデータは2番目のノードでここに表示されます。
Output+----+-------+-------+-------+
| id | type | quant | color |
+----+-------+-------+-------+
| 1 | slide | 2 | blue |
+----+-------+-------+-------+
この同じノードから、クラスターにデータを書き込むことができます。
mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("swing", 10, "yellow");'
3番目のノードでの読み取りと書き込み
3番目のノードから、テーブルを再度クエリすることにより、このデータをすべて読み取ることができます。
mysql -u root -p -e 'SELECT * FROM playground.equipment;'
2行を示す次の出力が表示されます。
Output +----+-------+-------+--------+
| id | type | quant | color |
+----+-------+-------+--------+
| 1 | slide | 2 | blue |
| 2 | swing | 10 | yellow |
+----+-------+-------+--------+
繰り返しますが、このノードから別の値を追加できます。
mysql -u root -p -e 'INSERT INTO playground.equipment (type, quant, color) VALUES ("seesaw", 3, "green");'
最初のノードで読む:
最初のノードに戻って、どこでもデータが利用できることを確認できます。
mysql -u root -p -e 'SELECT * FROM playground.equipment;'
行が最初のノードで使用可能であることを示す次の出力が表示されます。
Output +----+--------+-------+--------+
| id | type | quant | color |
+----+--------+-------+--------+
| 1 | slide | 2 | blue |
| 2 | swing | 10 | yellow |
| 3 | seesaw | 3 | green |
+----+--------+-------+--------+
すべてのノードに書き込むことができ、複製が適切に実行されていることを確認できました。
結論
この時点で、動作中の3ノードGaleraテストクラスターが構成されています。 実稼働環境でGaleraクラスターを使用する予定がある場合は、5つ以上のノードから始めることをお勧めします。
実稼働環境で使用する前に、* xtrabackup *のようなhttp://galeracluster.com/documentation-webpages/sst.html [その他の状態スナップショット転送(sst)エージェント]の一部を見てください。アクティブノードへの大きな中断なしに、非常に迅速に新しいノードをセットアップします。 これは実際のレプリケーションには影響しませんが、ノードが初期化される際の懸念事項です。