Skocz do zawartości

Bonding Interfejsów I 2 Switche


samba

Rekomendowane odpowiedzi

Witam

Mam serwer z kartą 2portową kartą intela 1Gb oraz dwa switche gigabitowe dlink. Obecnie z serwera idzie 1 kabel na swich pierwszy a ze swicha pierwszego kabel do drugiego switcha. Wpadłem na pomysł aby podnieść wydajność sieci chciałbym połączyć 2 interfejsy sieciowe jako jeden czyli bonding lub teaming.

I tu pytanie są różne wersje bondingu round-robin (raz 1 raz drugi) itp który wybrać tak aby nie było problemów z DHCP ??

 

Dodam iż serwer działa jako kontroler domeny SAMBA PDC tak więc obydwa interfejsy muszą mieć takie same adresy IP aby klienci mogli logować się na serwer i bazy danych.

 

Drugim pytaniem jest jeśli fizycznie zrobię bonding to z serwera wychodzą 2 fizyczne kable UTP6 tak więc jeśli podłączę jeden z kabli do jednego switcha a drugi do drugiego switcha to czy kompy będą widzieć się w sieci czy jeszcze muszę puścić dodatkowy kabel między switchami ?? tzn czy serwer nie podzieli mi sieci na 2 podsieci w których komputery nie będą widzieć się na wzajem ?

 

 

 

----------

|serwer| eth0_____________________________|switch1|

|bonding|

----------- dodatkowy kabel między nimi ????

|eth1___________________________________|switch2|

Odnośnik do komentarza
Udostępnij na innych stronach

Nie chę popełnic jakies wpadki ale jezeli w serwerze masz 2x1GB a switche 1GB to nie wiem co bys robilł to i tak switch bedzie ci przetwarzal na 1 gb. A jezeli koncowi userzy maja karty 100Mb to tak naprawde oni nie odzuja zadnej poprawy. Oni nadal bedą przesylać dane na poziomie 100Mb Oczywiscie nie mowie tu nic o zapisie danych na dysku.

Odnośnik do komentarza
Udostępnij na innych stronach

Nie chę popełnic jakies wpadki ale jezeli w serwerze masz 2x1GB a switche 1GB to nie wiem co bys robilł to i tak switch bedzie ci przetwarzal na 1 gb. A jezeli koncowi userzy maja karty 100Mb to tak naprawde oni nie odzuja zadnej poprawy. Oni nadal bedą przesylać dane na poziomie 100Mb Oczywiscie nie mowie tu nic o zapisie danych na dysku.

 

Tutaj jednak mówisz nieprawdę, chodzi o przypadek kiedy 20 użytkowników ciągnie po 100Mbit.

Poprawa zależy od jakości switchy, kart sieciowych (tak naprawdę na rzadko których udaje się uzyskać pełne 100Mbit).

 

Odnośnik do komentarza
Udostępnij na innych stronach

Dzięki poczytam . Czy ktoś z was zrobił to . Jak to wygląda w praktyce czy widać jakąś różnicę odczuwalną w wydajności ??

Ja roznicy nie widzialem (Solaris, zfs) - przy predkosci zapisu danych na dyski rzedu 300MB/s u mnie podniesienie predkosci sieci z 1 do 2GB w zasadzie nie zmienilo nic.

W praktyce to ulepszenie spowodowalo obnizenie wydajnosci systemu - prawdopodobnie ze wzgledu na koniecznosc dodatkowego przelaczania i synchronizacji 2 interfejsow...

Odnośnik do komentarza
Udostępnij na innych stronach

Nie chę popełnic jakies wpadki ale jezeli w serwerze masz 2x1GB a switche 1GB to nie wiem co bys robilł to i tak switch bedzie ci przetwarzal na 1 gb. A jezeli koncowi userzy maja karty 100Mb to tak naprawde oni nie odzuja zadnej poprawy. Oni nadal bedą przesylać dane na poziomie 100Mb Oczywiscie nie mowie tu nic o zapisie danych na dysku.

Switche dlinka mają ponoc matryce czyli szybkość przełączania 10GB a karty u mnie wszyscy mają 1GB i są to karty Intela. 100Mb mają tylko 3drukarki sieciowe. Poza tym zastanawiam się czy włączeniu np jumbo frames coś da i czy switche przepuszczą większe pakiety?

Odnośnik do komentarza
Udostępnij na innych stronach

  • 2 weeks later...

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
×
×
  • Dodaj nową pozycję...