Sofcik Napisano Lipiec 23, 2014 Zgłoszenie Share Napisano Lipiec 23, 2014 Cześć Siedze właśnie nad tematem fencingu dla maszyn wirtualnych. Na hoście (Centos 6.5 + update) mam zainstalowane 3 maszyny wirtualne pracujące w klastrze (także Centos 6.5+update). Wg materiałów RH dodałem fencing z wykorzystaniem fence_xvm (w trybie Multicast) i niestety fencing nie działa. Puszczony jest ruch igmp na wszystkich maszynach (łącznie z hypervisorem). Poniżej configi z hosta i config klastra: fence_virtd.conf: cluster.conf: <?xml version="1.0"?><cluster config_version="75" name="cluster-1"> <clusternodes> <clusternode name="c6-node01" nodeid="1"> <fence> <method name="kvmfence_node01"> <device domain="c6-node01" name="kvmfence"/> </method> </fence> </clusternode> <clusternode name="c6-node02" nodeid="2"> <fence> <method name="kvmfence_node02"> <device domain="c6-node02" name="kvmfence"/> </method> </fence> </clusternode> <clusternode name="c6-node03" nodeid="3"> <fence> <method name="kvmfence_node03"> <device domain="c6-node03" name="kvmfence"/> </method> </fence> </clusternode> </clusternodes> <rm> <failoverdomains> <failoverdomain name="domain_1" ordered="1" restricted="1"> <failoverdomainnode name="c6-node01" priority="1"/> <failoverdomainnode name="c6-node02" priority="1"/> <failoverdomainnode name="c6-node03" priority="1"/> </failoverdomain> </failoverdomains> <resources> <ip address="192.168.0.103/24" disable_rdisc="1" sleeptime="10"/> <lvm name="HA-LVM" self_fence="1" vg_name="havg"/> <apache config_file="conf/httpd.conf" name="httpd" server_root="/etc/httpd" shutdown_wait="3"/> <fs device="/dev/havg/halv" fsid="49557" fstype="ext4" mountpoint="/var/www/html" name="wwwfs" quick_status="1" self_fence="1"/> </resources> <service domain="domain_1" name="www_test" recovery="relocate"> <ip ref="192.168.0.103/24"/> <lvm ref="HA-LVM"/> <apache ref="httpd"/> <fs ref="wwwfs"/> </service> </rm> <fencedevices> <fencedevice agent="fence_xvm" key_file="/etc/cluster/fence_xvm.key" name="kvmfence"/> </fencedevices> <cman> <multicast addr="224.0.0.0"/> </cman></cluster> Żeby było ciekawiej to fence_xvm z poziomu hosta hypervisora działa poprawnie. Maszyny ładnie "dostają w głowę" i się składają. Ale nie mogę wykonać "fence_node c6-node02" z poziomu innej maszyny wirtualnej. Czy ktoś ma jakieś pomysły co robię źle i dlaczego działa to z hypervisora a nie działa z wnętrza wirtualek? A może na CentOSie jest coś nie do końca tak samo zrobione jak na RHEL? -- Piotrek Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Sofcik Napisano Lipiec 23, 2014 Autor Zgłoszenie Share Napisano Lipiec 23, 2014 Niestety fence_virt.conf się nie załączył jako kod: backends { libvirt { }}listeners { multicast { interface="br0"; port = "1229"; family = "ipv4"; address = "225.0.0.12"; key_file = "/etc/cluster/fence_xvm.key"; }}fence_virtd { module_path = "/usr/lib64/fence-virt"; backend = "libvirt"; listener = "multicast";} Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Gość _PaT Napisano Lipiec 23, 2014 Zgłoszenie Share Napisano Lipiec 23, 2014 Multicast w wirtualkach może być odfiltrowany, nawet poza iptables. Nasz krajan opisał to w szczegółach: http://maciek.lasyk.info/sysop/pl/2013/08/09/ganglia-multicast-kvm-on-centos/ Odnośnik do komentarza Udostępnij na innych stronach More sharing options...
Rekomendowane odpowiedzi
Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto
Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.
Zarejestruj nowe konto
Załóż nowe konto. To bardzo proste!
Zarejestruj sięZaloguj się
Posiadasz już konto? Zaloguj się poniżej.
Zaloguj się