17 Kasım 2021 Çarşamba

Linux cluster - Quorum ayarlari

3 sunucudan olusan linux cluster kurdugumuz normal sartlarda bir node devre disi kaldiginda, geriye kalan 2 node hayata devam eder. Hayatta olan bir node daha devre disi kalirsa, sona kalan sunucu da calismayi birakir, ve elimizde calisan bir sistem olmaz. Her nekadar boyle bir olasilik dusuk olsada, mevcuttur.

Boyle durumlarda sona kalan tek sunucunun calismasini istiyorsak,

quorum ozelliklerinden last_man_standing aktif yapmamiz gerekiyor.

quorum ayarlarini gucelliyoruz;

# pcs cluster stop --all

# pcs quorum update auto_tie_breaker=1 last_man_standing=1 wait_for_all=1

# pcs cluser start --all

 

Yaptigimiz islemleri kontrol ediyoruz.


# cat /etc/corosync/corosync.conf

# pcs quorum config


Onemli bir nokta ise nodelar ayni anda devre disi kalmamalari, aralarinda en azindan 10 sn(tavsiyem 20 sn) zaman olmasi gerekiyor, normal sartlarda.

Asagidaki ekran goruntulerini incelemek ve aradaki farklari gormek gerekiyor.









Linux cluster - Quorum ayarlari

3 sunucudan olusan linux cluster kurdugumuz normal sartlarda bir node devre disi kaldiginda, geriye kalan 2 node hayata devam eder. Hayatta olan bir node daha devre disi kalirsa, sona kalan sunucu da calismayi birakir, ve elimizde calisan bir sistem olmaz. Her nekadar boyle bir olasilik dusuk olsada, mevcuttur.

Boyle durumlarda sona kalan tek sunucunun calismasini istiyorsak,

quorum ozelliklerinden last_man_standing aktif yapmamiz gerekiyor.

quorum ayarlarini gucelliyoruz;

# pcs cluster stop --all

# pcs quorum update auto_tie_breaker=1 last_man_standing=1 wait_for_all=1

# pcs cluser start --all

 

Yaptigimiz islemleri kontrol ediyoruz.


# cat /etc/corosync/corosync.conf

# pcs quorum config


Onemli bir nokta ise nodelar ayni anda devre disi kalmamalari, aralarinda en azindan 10 sn(tavsiyem 20 sn) zaman olmasi gerekiyor, normal sartlarda.

Asagidaki ekran goruntulerini incelemek ve aradaki farklari gormek gerekiyor.









16 Kasım 2021 Salı

Linux cluster - libvirt pacemaker+kvm fence

 Uzun zaman once pacemaker+kvm fence timeout ufak çalışmam olmuştu.

Bu günlerde ha işlemlerine tekrar başlayınca, pcs ve libvirt fence ayarlaması hakkında yeteri kadar bilgiyi not edeyim;

normalde tum libvirt üzerindeki serverlar için bir tane fence ayarlayabiliyoruz, olsakda iki tane fence servisi oluşturdum. :)

 pcs stonith create fence_ab fence_xvm key_file=/etc/cluster/fence_xvm.key pcmk_host_map="nodea:nodea.example.lan nodeb:nodeb.example.lan"

pcs stonith create fence_cd fence_xvm key_file=/etc/cluster/fence_xvm.key pcmk_host_map="nodec:nodec.example.lan noded:noded.example.lan"



Aşağıdaki bağlantıda detaylı bilgi bulabilirsiniz;

How to configure stonith agent `fence_xvm` in pacemaker cluster when cluster nodes are KVM guests and are on different KVM hosts.

 https://access.redhat.com/solutions/2386421


Linux cluster - libvirt pacemaker+kvm fence

 Uzun zaman once pacemaker+kvm fence timeout ufak çalışmam olmuştu.

Bu günlerde ha işlemlerine tekrar başlayınca, pcs ve libvirt fence ayarlaması hakkında yeteri kadar bilgiyi not edeyim;

normalde tum libvirt üzerindeki serverlar için bir tane fence ayarlayabiliyoruz, olsakda iki tane fence servisi oluşturdum. :)

 pcs stonith create fence_ab fence_xvm key_file=/etc/cluster/fence_xvm.key pcmk_host_map="nodea:nodea.example.lan nodeb:nodeb.example.lan"

pcs stonith create fence_cd fence_xvm key_file=/etc/cluster/fence_xvm.key pcmk_host_map="nodec:nodec.example.lan noded:noded.example.lan"



Aşağıdaki bağlantıda detaylı bilgi bulabilirsiniz;

How to configure stonith agent `fence_xvm` in
pacemaker cluster when cluster nodes are KVM guests and are on different
KVM hosts.

 https://access.redhat.com/solutions/2386421


Linux cluster - libvirt pacemaker+kvm fence

 Uzun zaman once pacemaker+kvm fence timeout ufak çalışmam olmuştu.

Bu günlerde ha işlemlerine tekrar başlayınca, pcs ve libvirt fence ayarlaması hakkında yeteri kadar bilgiyi not edeyim;

normalde tum libvirt üzerindeki serverlar için bir tane fence ayarlayabiliyoruz, olsakda iki tane fence servisi oluşturdum. :)

 pcs stonith create fence_ab fence_xvm key_file=/etc/cluster/fence_xvm.key pcmk_host_map="nodea:nodea.example.lan nodeb:nodeb.example.lan"

pcs stonith create fence_cd fence_xvm key_file=/etc/cluster/fence_xvm.key pcmk_host_map="nodec:nodec.example.lan noded:noded.example.lan"



Aşağıdaki bağlantıda detaylı bilgi bulabilirsiniz;

How to configure stonith agent `fence_xvm` in pacemaker cluster when cluster nodes are KVM guests and are on different KVM hosts.

 https://access.redhat.com/solutions/2386421


3 Kasım 2021 Çarşamba

Bir disk daha bozuldu, hadi bozuk diskteki verileri kurtaralım.

Kişisel olarak kullandığım disklerden birisi daha ömrünü doldurdu.

Her şeyin ömrü olduğu disklerinde ömrü olduğunu unutmamazım, 

mekanik disklerdeki dosyalarımız önemli, ikinci bir diske yedeklememiz şart.

Bozulan diskteki verinin yedeği olmadığı için, kurtarabileceğim verileri kurtarayım diyerek ddrescue ile işleme başladım. Yaklaşık 10 saat sonra %99.99 veri kurtuldu.

Gidene selam olsun, kalan bizlerindir dedik. Günün birinde sizlerinde diski bozulursa ddrescue işinize yarıyabilir.

Aşağıda gördüğünüz gibi kullanmak oldukça basit.

Bir disk daha bozuldu, hadi bozuk diskteki verileri kurtaralım.

Kişisel olarak kullandığım disklerden birisi daha ömrünü doldurdu.

Her şeyin ömrü olduğu disklerinde ömrü olduğunu unutmamazım, 

mekanik disklerdeki dosyalarımız önemli, ikinci bir diske yedeklememiz şart.

Bozulan diskteki verinin yedeği olmadığı için, kurtarabileceğim verileri kurtarayım diyerek ddrescue ile işleme başladım. Yaklaşık 10 saat sonra %99.99 veri kurtuldu.

Gidene selam olsun, kalan bizlerindir dedik. Günün birinde sizlerinde diski bozulursa ddrescue işinize yarıyabilir.

Aşağıda gördüğünüz gibi kullanmak oldukça basit.

ansible ile yerel quay sunucusu üzerinden execution environment kullanımı

 Yerel quay veya registry sunucularımızdaki ee leri ansible ile kullanabiliyoruz. Bunun için kendi yaptığımız ee leri veya hazır ee leri yük...