ホスト名を構成します
奇妙なホスト名を使用しないでください。奇妙なホスト名には奇妙な問題がある可能性があります。正直なところ、node1、この種の文字と数字です。
Centos7はホストを変更します:hostnamectl set-hostname node1
構成ファイルを参照する準備ができました
[ global]
auth service required = cephx
filestore xattr use omap = true
auth client required = cephx
auth cluster required = cephx
mon host = 192.168.0.1,192.168.0.2,192.168.0.3
mon initial members = node1,node2,node3
fsid = 87619a71-34dc-4203-8c52-995c374562a6
[ mon.node1]
host = node1
mon addr = 192.168.0.1:6789
[ mon.node2]
host = node2
mon addr = 192.168.0.2:6789
[ mon.node3]
host = node3
mon addr = 192.168.0.3:6789
/etc/ceph/ceph.confに書き込みます
環境をクリーンアップする
rm -fr /var/lib/ceph/*
rm -fr /tmp/monmap /tmp/ceph.mon.keyring
新しいクラスターuuidを作成します
[ root@node1 /data]# uuidgen
87619 a71-34dc-4203-8c52-995c374562a6
ceph.confを変更します "fsid = a7f64266-0894-4f1e-a635-d0aecca0e993"
あなたの月のコレクションを決定する
いくつかのmonを実行し、構成ファイルにいくつかを書き込む必要があります。通常は、1monや3monなどの単数形です。
mon initial members = node1,node2,node3
mon host = 192.168.0.1,192.168.0.2,192.168.0.3
キーリングを作る
モンキーを行う
ceph-authtool –create-keyring /tmp/ceph.mon.keyring –gen-key -n mon. –cap mon ‘allow *’
管理者キーを作成し、monキーとマージします
ceph-authtool –create-keyring /etc/ceph/ceph.client.admin.keyring –gen-key -n client.admin –set-uid=0 –cap mon ‘allow *’ –cap osd ‘allow *’ –cap mds ‘allow’
ceph-authtool /tmp/ceph.mon.keyring –import-keyring /etc/ceph/ceph.client.admin.keyring
モンビューの良い仕事をしてください、これは非常に重要です、モンのすべてのノードを入力する必要があります
monmaptool –create –add node1 192.168.0.1 –add node2 192.168.0.2 –add node3 192.168.0.3 –fsid 87619a71-34dc-4203-8c52-995c374562a6 /tmp/monmap
monデータディレクトリを作成します
mkdir -p /var/lib/ceph/mon/ceph-node1
monファイルシステムを初期化して作成します
ceph-mon –mkfs -i node1 –monmap /tmp/monmap –keyring /tmp/ceph.mon.keyring
touch / var / lib / ceph / mon / ceph-node1 / done#これは必要です。ロゴは正常に準備されています。
サービス開始
/etc/init.d/ceph start mon.node1
/etc/init.d/ceph start mon.node2
/etc/init.d/ceph start mon.node3
#! /bin/sh
for disk in$(ls /dev/sd*1);do
# スキップされたディスクデバイス
if["$disk"="/dev/sda1"-o "$disk"="/dev/sdb1"];then
echo "skip $disk"else
i=$(ceph osd create)
echo "mkxfs..$disk"
mkfs.xfs -f $disk
mkdir -p /var/lib/ceph/osd/ceph-$i
mount -t xfs -o noatime,inode64 -- $disk /var/lib/ceph/osd/ceph-$i
ceph-osd -i $i --mkfs --mkkey --osd-uuid b23b48bf-373a-489c-821a-31b60b5b5af0
ceph auth add osd.$i osd 'allow *' mon 'allow profile osd'-i /var/lib/ceph/osd/ceph-$i/keyring
ceph osd crush add osd.$i 1.0 host=node1
echo "[osd.$i]">>/etc/ceph/ceph.conf
echo "host = node1">>/etc/ceph/ceph.conf
/etc/init.d/ceph start osd.$i
fi
done
[ mds]
mds data = /var/lib/ceph/mds/mds.
[ mds.0]
host = {hostname}
ディレクトリとキーを作成します
mkdir -p /var/lib/ceph/mds/mds.0
ceph auth get-or-create mds.0 mds ‘allow ‘ osd ‘allow *’ mon ‘allow rwx’ > /var/lib/ceph/mds/mds.0/mds.0.keyring
mdsを開始します
/etc/init.d/ceph start mds.0
ceph-sを検出する
cephファイルシステムを実行します
Less than 5 OSDs set pg_num to 128
Between 5 and 10 OSDs set pg_num to 512
Between 10 and 50 OSDs set pg_num to 4096
If you have more than 50 OSDs, you need to understand the tradeoffs and how to calculate the pg_num value by yourself
( OSDs * 100)
Total PGs = ————
pool size
ファイルシステムのマウント
パフォーマンスを最適化しない場合、CephはログをOSDデータと同じハードディスクに保存します。高性能を追求するOSDは、別のハードディスクを使用してログデータを保存できます。たとえば、ソリッドステートハードディスクは高性能ログを提供できます。
osdジャーナルサイズのデフォルト値は0であるため、ceph.confで設定する必要があります。ログサイズは、ファイルストアの最大同期間隔と予想されるスループットに2を掛けたものでなければなりません。
osd journal size = {2 * (expected throughput * filestore max sync interval)}
予想されるスループットは、予想されるハードディスクのスループット(つまり、継続的なデータ転送速度)とネットワークのスループットを考慮する必要があります。たとえば、7200rpmのハードディスクの速度は約100MB /秒です。ハードディスクとネットワークのスループットの小さい方(min())は比較的妥当なスループットであり、一部のユーザーは10GBのログサイズで開始します。次に例を示します。
osd journal size = 10000
Recommended Posts