abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    dnes 11:44 | IT novinky

    Společnost Raspberry Pi dnes vstoupila na Londýnskou burzu jako Raspberry Pi Holdings plc (investor).

    Ladislav Hagara | Komentářů: 0
    dnes 01:22 | IT novinky

    Do 17. června do 19:00 běží na Steamu přehlídka nadcházejících her Festival Steam Next | červen 2024 doplněná demoverzemi, přenosy a dalšími aktivitami. Demoverze lze hrát zdarma.

    Ladislav Hagara | Komentářů: 0
    včera 22:33 | IT novinky

    Apple na své vývojářské konferenci WWDC24 (Worldwide Developers Conference, keynote) představil řadu novinek: svou umělou inteligenci pojmenovanou jednoduše Apple Intelligence, iOS 18, visionOS 2, macOS Sequoia, iPadOS 18, watchOS 11, …

    Ladislav Hagara | Komentářů: 6
    včera 21:44 | Nová verze

    Vyšla nová verze XMPP (Jabber) klienta Gajim, která přidává podporu reakcí pomocí emoji (XEP-0444: Message Reactions) a citace zpráv (XEP-0461: Message Replies). Přehled dalších vylepšení je k dispozici na oficiálních stránkách.

    sonicpp | Komentářů: 1
    včera 15:00 | Nová verze

    Po po téměř roce vývoje od vydání verze 5.38 byla vydána nová stabilní verze 5.40 programovacího jazyka Perl (Wikipedie). Do vývoje se zapojilo 75 vývojářů. Změněno bylo přibližně 160 tisíc řádků v 1 500 souborech. Přehled novinek a změn v podrobném seznamu.

    Ladislav Hagara | Komentářů: 7
    včera 12:00 | Zajímavý článek

    Uroš Popović popisuje, jak si nastavit Linux na desce jako Raspberry Pi Zero, aby je šlo používat jako USB „flešku“.

    Fluttershy, yay! | Komentářů: 1
    včera 08:44 | Zajímavý software

    Andreas Kling oznámil, že jelikož už se nevěnuje nezávislému operačnímu systému SerenityOS, ale výhradně jeho webovému prohlížeči Ladybird, přičemž vyvíjí primárně na Linuxu, SerenityOS opustí a Ladybird bude nově samostatný projekt (nový web, repozitář na GitHubu).

    Fluttershy, yay! | Komentářů: 2
    včera 02:22 | Nová verze

    Po dvou měsících vývoje byla vydána nová verze 0.13.0 programovacího jazyka Zig (GitHub, Wikipedie). Přispělo 73 vývojářů. Přehled novinek v poznámkách k vydání.

    Ladislav Hagara | Komentářů: 0
    8.6. 17:55 | Komunita

    Na čem aktuálně pracují vývojáři GNOME a KDE? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE.

    Ladislav Hagara | Komentářů: 11
    7.6. 14:55 | IT novinky

    Před 70 lety, 7. června 1954, ve věku 41 let, zemřel Alan Turing, britský matematik, logik, kryptoanalytik a zakladatel moderní informatiky.

    Ladislav Hagara | Komentářů: 29
    Rozcestník

    HA cluster

    10.5.2011 14:22 | Přečteno: 3261× | Za vším hledej Linux

    Křivolaké jsou cestu osudu. A mne přivedly k tomu, že jsem vytvořil náš první HA cluster a začal se v tom krapet vrtat. Na základě několika příspěvků ve zdejších diskuzích jsem kontaktoval i některé z vás - tímto je zdravím, kteří se se mnou ochotně o své zkušenosti podělili - za což jim děkuji.

    Existují různé typy clusteru. Tenhle je určen primárně pro KVM virtualizaci. Správu zdrojů zajišťuje Pacemaker, za jehož vývojem stojí Red Hat. A v tom byl kámen úrazu, neboť mou preferovanou distribucí je Debian. Zpočátku jsem v tom měl docela chaos, neboť jsem netušil co všechno vlastně nainstalovat a jak to má fungovat. Stroje opakovaně padaly do vývrtky a já netušil proč. Zdroje - přestože jsem postupoval dle návodů - nefungovaly jak měly a čas od času jsem byl odměněn i nečekaným zpanikařením celého stroje.

    To však mám ale již za sebou. Opět se potvrdilo, že co si člověk neudělá, to nemá a také se vyplatí občas kouknout aplikacím na střeva. Takže kromě vlastní dokumentace k HA clusteru na naší wiki, jsem si vytvořil i vlastní repository pro amd64. Bla bla bla k ní najdete v kapitole CRM - instalace. Pokud budete chtít balíky z ní použít, budu rád. Pokud budete chtít přispět k jejich vylepšení, budu ještě radši.

    Když už jsem u toho, tak bych chtěl upozornit ještě na kategorii Manuály. Možná i tam najdete něco co se vám bude hodit. Jen tak namátkou bych zmínil manuály na téma: GRUB2, LVM nebo Linuxový SW RAID. Je v nich uložena spousta času zabitého hledáním střípků v hromadách internetového hnoje a vše na vlastní kůži odzkoušeno - tak si toho važte.

    Předtím jsem tyhle věci psal na wikibooks, ovšem po zralé úvaze a znechucení ze strany samozvaných cenzorů jsem od toho upustil. Není nad wiki, kde je člověk svým pánem, neboť vývoj jde stále kupředu a klasické staticky publikované články, nebo blogy jako tento, nemají z hlediska času šanci přežít.

           

    Hodnocení: 100 %

            špatnédobré        

    Anketa

    Láká vás vyzkoušet linuxový cluster?
     (83 %)
     (8 %)
     (9 %)
    Celkem 53 hlasů

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    Komentáře

    Vložit další komentář

    10.5.2011 14:49 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Dobrý návod, díky. Máte tam linuxový mdraid, nebo HW kartu s cache a baterií? Všude čtu, že u sw raidu je problém při zápisu, protože je třeba seekovat kvůli zápisu DRBD metadat. Pokud je tam mdraid, nejsou s tím výkonnostní problémy? Já DRBD zatím testoval jen nad HW RAIDem, a tam je to OK.

    Jinak, proč OCFS? Přišlo mi to jako další úroveň komplexnostni a možné ztráty výkonu, když obrazy VM by mohly být rovnou na (c)LVM. Jasnou výhodou obrazů na filesystemu je dynamická alokace zabraného místa a možnost snapshotů. Byl to důvod pro OCFS?

    Já jsem dříve u clusteru šel raději cestou s mémě vrstvami - HW RAID, LVM, pro každý virtuál jeden LV, nad každým LV je DRBD resource, Xen přímo na DRBD. Cluster manager pak přepíná jen Xen VMs, ostatní se řeší "samo". Nemá to tolik možností a flexibility, ale nemám tolik strach že se něco rozbije nebo bude padat a nepůjde zjistit proč.
    10.5.2011 15:17 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Používám linuxový SW raid (verze 1.2). Jenže ten je až pod LVM, takže s ním DRBD vůbec nepracuje. Výkonostní problémy jsem nezaregistroval a že to drásám z hlediska zápisů a čtení docela fest. Do hardwarového raidu bych už nikdy nešel. O důvodech proč se tam mám dojem také zmiňuji.

    Proč je použito OCFS2 je na těch stránkách zmíněno. Lépe dokumentované, lepší výsledky v testech a oproti GFS2 jsem ho rozchodil prakticky ihned a bez problémů. Pochopitelně to chce mít patřičně svěží kernel.

    Vím že lze použít clusterovou verzi LVM, ale to se nějak chtělo handrkovat s LVM na první vrstvě a navíc - proč bych to dělal? Takhle nic nemusím řešit a sdílený prostor mohu využít i pro nasdílení adresářů přímo z virtuálů. Ale jinak ano - dynamická alokace místa a snapshoty - byl také kamínky na misce vah.

    Pokud jde o počet vrstev. Řekl bych že to co jsem zvolil je takové existenční minimum pro to, aby ten cluster byl skutečně HA. Tj. aby přežil i případný hardwarový kolaps disku a bylo jej možné opravit za běhu. Jinými slovy - k tomuto nasazení jsem došel evolučním vývojem. Mimochodem, není bez zajímavosti, že velmi podobně navrhnul své centrální úložiště i Zdeněk Burda, na jehož blogpost mě upozornil kolega v době kdy už jsem si sepisoval poznámky ke kapitolce o DRBD.
    10.5.2011 15:33 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Používám linuxový SW raid (verze 1.2). Jenže ten je až pod LVM, takže s ním DRBD vůbec nepracuje.
    Šlo o to, že DRBD potřebuje mít jistotu, že je na disku fyzicky aktualizována bitmapa bloků v metadatech, než se začnou zapisovat další data. Jinak by při nekorektním ukončení systému (výpadek napájení) mohla být DRBD metadata nekonzistentní se skutečným stavem. Když máte HW RAID z baterii, tak je za "fyzickou aktualizaci" uvažován už zápis do writeback cache na RAIDu, a disk kvůli tomu nemusí dělat hned seek. I proto se Linbit vyjadřuje ve smyslu "DRBD jedině s HW RAIDem a BBWC, jinak se ničemu nedivte". Takže u SW raidu buď může dojít k nekonzistenci, nebo je tam degradace výkonu při určitém typu žátěže.

    Nevýhody HW RAIDu jsou jasné, ale pokud se u toho clusteru použije u každého uzlu karta jiného výrobce, tak se ta rizika podle mě omezí.
    Mimochodem, není bez zajímavosti, že velmi podobně navrhnul své centrální úložiště i Zdeněk Burda, na jehož blogpost mě upozornil kolega v době kdy už jsem si sepisoval poznámky ke kapitolce o DRBD.
    Ono to na linuxu moc jinak udělat nejde, natož pak lépe. Ano, ten blogspot je dobrý.
    10.5.2011 15:52 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Tady už bruslím na tenkém ledě, ale myslím, že právě proto se nad drbd v režimu Master/Master používá OCFS2, které data replikuje na úrovni souborového systému. Když chcípne jeden stroj, tak se při nahazování data nejprve synchronizují z disku který zůstal běžet tak aby se nenabourala jiná data, s tím že případné zbylé nekonzistence se pak již řeší na úrovni souborového systému.

    Osobně bych se velmi bál svěřit data právě jenom jedné vrstvě. To byl i důvod proč jsem nakonec nezvolil cluster LVM.

    Ostatně pro cluster s větším počtem nodů bych zvolil spíše CEPH, nebo GlusterFS, které pracují s rozprostřenými daty.
    10.5.2011 16:56 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Tady už bruslím na tenkém ledě, ale myslím, že právě proto se nad drbd v režimu Master/Master používá OCFS2, které data replikuje na úrovni souborového systému.
    No to nevím. Podle mě OCFS2 o nějakém DRBD vůbec nic neví. OCFS2 prostě předpokládá, že máte na všech strojích sdílené blokové zařízení. Typicky exportované z nějakého externího pole/SAN přes iSCSI nebo Fibre Channel. V prostředí, pro které je OCFS2 primárně určen, je DRBD taková nouzovka, pokud nemáte dost peněz na SAN.

    OCFS2 jako nakonec asi každý clusterový filesystem (třeba GFS) má vlastní lock manager, který mezi uzly komunikuje přes síť a řeší synchronizaci přístupu / zámky.
    Když chcípne jeden stroj, tak se při nahazování data nejprve synchronizují z disku který zůstal běžet tak aby se nenabourala jiná data,
    Tohle dělá DRBD. S tím OCFS2 téměř jistě nemá nic společného, protože o DRBD nic neví.
    s tím že případné zbylé nekonzistence se pak již řeší na úrovni souborového systému.
    To je něco jiného. DRBD metadata slouží hlavně k tomu, aby se po výpadku poznalo, které bloky na "neaktuálním" disku byly v době výpadku změněny, aniž by se musely projíždět oba celé disky. Kvůli tomu je velmi důležité držet konzistenci těch metadat a pořadí zápisů. Jinak může dojít k tomu, že DRBD resource bude ve stavu Consistent, ale data na obou stranách se budou lišit. I proto je možné a asi i dobré občas spustit kompletní kontrolu konzistence dat na obou stranách.

    Vše je popsáno na webu Linbitu. Ale pokud to vše funguje dobře, není to zásadně podstatné. Nejhorší situace, kdy se toto může projevit, je výpadek napájení obou strojů pod I/O zátěží.
    Ostatně pro cluster s větším počtem nodů bych zvolil spíše CEPH, nebo GlusterFS, které pracují s rozprostřenými daty.
    Záleží na typu zátěže a požadovaném výkonu. Je pravda, že tahle SW řešení typu GlusterFS se stávají stabilními až v poslední době. Ale ty firmy, co si kupují drahé SAN systémy, nejsou úplně mimo.

    Jako hodně zajímavé z této oblasti mi přijde tohle: http://sourceforge.net/apps/mediawiki/vastsky/index.php?title=Main_Page, plánuje se integrace do Xenu.
    10.5.2011 18:04 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    No to nevím. Podle mě OCFS2 o nějakém DRBD vůbec nic neví. OCFS2 prostě předpokládá, že máte na všech strojích sdílené blokové zařízení. Typicky exportované z nějakého externího pole/SAN přes iSCSI nebo Fibre Channel. V prostředí, pro které je OCFS2 primárně určen, je DRBD taková nouzovka, pokud nemáte dost peněz na SAN.
    No to se mi moc nezdá. Nemám pocit že by OCFS2 nutně vyžadovalo sdílené blokové zařízení.
    Když chcípne jeden stroj, tak se při nahazování data nejprve synchronizují z disku který zůstal běžet tak aby se nenabourala jiná data,
    Tohle dělá DRBD. S tím OCFS2 téměř jistě nemá nic společného, protože o DRBD nic neví.
    Nějak se míjíme v chápání psané věty, protože to co jsem napsal jinými slovy říká totéž.
    Ostatně pro cluster s větším počtem nodů bych zvolil spíše CEPH, nebo GlusterFS, které pracují s rozprostřenými daty.
    Záleží na typu zátěže a požadovaném výkonu. Je pravda, že tahle SW řešení typu GlusterFS se stávají stabilními až v poslední době. Ale ty firmy, co si kupují drahé SAN systémy, nejsou úplně mimo.
    Ne tak docela. Tím nemám ne mysli stabilitu těchto souborových systémů, jako spíš způsob jejich nasazení. Jejich nasazení má totiž smysl až u většího počtu strojů, což je úúplně jiná situace, než v jaké se nasazuje SAN.

    Krom toho XEN je z hlediska linuxu podle mě mrkev. Dovolím si krapet zavěštit.

    Na počátku stojí klasická otázka: "Kdo za tím stojí a komu to slouží?". Zajímavá je rivalita v oblasti lokálních souborových systémů ( Ext4 versus Btrfs ), souborových systémů pro menší clustery ( GFS2 versus OCFS2 ) či souborových systémů pro velké clustery ( GlusterFS versus Lustre ). Na jedné straně barikády stojí Red Hat a na té druhé ORACLE.

    Zajímavé jsou určité invektivy či skoro až pomluvy, které se vůči ORACLE čas od času vynoří. Je to logické, neboť Red Hat se cítí z této strany ohrožen. ORACLE už získal SUN. Firmu která byla v oblasti unixových serverů konkurencí pro Red Hat a vyvíjela kancelářský balík. S ní i řešení pro lokální virtualizaci.

    Kdyby ORACLE spolknul Red Hat, tak by se defakto dostal do přímé protiváhy Microsoftu, neboť by byl schopen nabídnout naprosto stejné alternativní spektrum služeb. Od desktopu po virtualizační platformu. Ovšem na rozdíl od Microsoftu staví ORACLE přes veškeré poplašné zprávy jak se zdá svou budoucnost na open source platformě, neboť si je dobře vědom že takto má k dispozici tisíce vývojářů a miliony testerů, které by nikdy nebyl schopen zaplatit.
    10.5.2011 19:22 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    No to se mi moc nezdá. Nemám pocit že by OCFS2 nutně vyžadovalo sdílené blokové zařízení.
    Tak na co tam pak řešíte DRBD? DRBD dělá replikaci a nad tím OCFS dělá replikaci ještě jednou? DRBD není nic jiného, než "virtuálně" sdílené blokové zařízení. V Active/Active se to na obou strojích tváří jako by to bylo nějaké sdílené diskové pole.
    Nějak se míjíme v chápání psané věty, protože to co jsem napsal jinými slovy říká totéž.
    Ano, špatně jsem to pochopil.
    Ne tak docela. Tím nemám ne mysli stabilitu těchto souborových systémů, jako spíš způsob jejich nasazení. Jejich nasazení má totiž smysl až u většího počtu strojů, což je úúplně jiná situace, než v jaké se nasazuje SAN.
    To asi ano, oblast je jiná. Přesto pro účely provozního uložení obrazů disků virtuálních strojů považuji SAN za nejlepší řešení. Pokud potřebujeme storage pro soubory, pak se mi třeba GlusterFS líbí víc. Jistě záleží na typu žátěže pro ty virtuální stroje, pokud půjde o I/O výkon a latence, tak SAN řešení musí vyhrát už z principu složitosti a počtu vrstev. Další otázkou je spolehlivost, kde ale teorie dosti selhává - každopádně u distribuovaného FS data prochází daleko větší logikou a větším množstvím kódu než v případě [ diskové pole - FC síť - FC HBA ]. V oblasti enterprise virtualizace ani nikdo jinou cestou než SAN storage nejde ... ale i tam to možná přijde.
    Krom toho XEN je z hlediska linuxu podle mě mrkev. Dovolím si krapet zavěštit.
    Z hlediska linuxu možná. XEN rozhodně jen tak neumře, Citrix na něm má postaveno dost zajímavých produktů. A vývoj je OSS. Ale je to koncipováno spíš jako "blackbox" typu VMWare ESX.
    10.5.2011 21:42 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Pokud jde o XEN a Citrix, tak jsem docela v obraze. Sláva a pád XENu ke v tom, že je zafixovaný na starší linuxové jádro. Konec konců, pamětníci vědí, že ESX taky stojí nad nějakým prastarým Red Hatem.

    Myslím, že pokud VMware a Citrix neuloví lidi schopné přizpůsobit tyhle věci na aktuální kernel, tak postupně odumřou.
    11.5.2011 09:55 kyytaM | skóre: 35 | blog: kyytaM | Bratislava
    Rozbalit Rozbalit vše Re: HA cluster
    Do Xenu investuje nemale peniaze aj Oracle. Zahodil XVM, co bolo Solaris Xen Dom0 riesenie a sustredia sa na cestou Linux Dom0 (Oracle ma vlastne produkty zalozene na Xene a aj skupili mensie firmy, ktore si predtym stavali vlastne Xen riesenia). Dom0 podpora uz by mala byt pouzitelna vo vanilke 2.6.40 respektive 2.6.41 - upstreamuje sa (pvops Xen Dom0 implementacia). Kazdopaden klasicke Xen patche boli forwardportovane uz aj do 2.6.38 pokial viem.

    11.5.2011 13:16 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Ještě k tomu proč je tam DRBD když by OCFS mohlo stačit.

    Věc se má tak, že nejdřív tam bylo DRBD a teprve následně jsem hledal vhodný FS. Faktem je, že v kombinaci s OCFS se mi prakticky nestalo, že by mi vznikla nekonzistence, kvůli níž by bylo nutné provést synchronizaci.

    Ovšem pokud jde o nastolenou otázku stran nutnosti sdíleného blokového zařízení, dík za ni. Určitě to vyzkouším.
    11.5.2011 16:47 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Když se podívám na UserGuide k OCFS 1.6, tak na str. 7 jsou celkem jasně popsané vlastnosti.
    "It is also a shared disk cluster file system, one that allows multiple nodes to access the same disk at the same time"
    O replikaci tam nic nevidím, i když by mě to potěšilo. Ale oni by se o tom jistě zmínili. Všechny návody, co jsem viděl, používaly OCFS nad DRBD nebo se počítalo třeba s nějakým sdíleným iSCSI polem. Je to stejný typ filesystemu jako RedHat GFS.
    Věc se má tak, že nejdřív tam bylo DRBD a teprve následně jsem hledal vhodný FS. Faktem je, že v kombinaci s OCFS se mi prakticky nestalo, že by mi vznikla nekonzistence, kvůli níž by bylo nutné provést synchronizaci.
    S OCFS je výhoda, že máte jen jeden DRBD resource, trvale ve stavu Active/Active. Třeba XenServer tohle řeší tak, že nad sdíleným diskem má jen LVM se kterým ale dělá různá kouzla kvůli snapshotům. Mají to nějak vyřešené, že není potřeba ani cLVM. Nebo nechávají správu oddílů pro VM přímo na SAN vrstvě (StorageLink).
    11.5.2011 20:21 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Jo. Máte pravdu. Ostatně je to zcela logické. OCFS jsem nepoužil kvůli tomu že by samo o sobě zajišťovalo replikaci dat, ale aby to blokové zařízení bylo možné namountovat na obou nodech.

    Zatím to nemám potřebu nějak extra řešit. Výhledově (až bude nodů na testováná více mám v plánu vyzkoušet i jiné řešení.
    11.5.2011 23:22 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Tak jsem si v praxi ověřil řešení, které jsem chtěl použít ještě předtím, než jsem narazil na DRBD. Určitě nejsem s tímto nápadem nijak původní, ale svůj účel plní.

    Lokální SW RAID vytvořený z nbd zařízení. Každý nod má vyexportováno jedno blokové zařízení. Takže /dev/nbd0 je připojený přes 127.0.0.1 a zbytek( /dev/nbd1, ...) po síti.

    Tento SW RAID je naformátovaný na OCFS2. V případě přerušení síťového připojení se nic neděje, protože lokální část raidového pole je stále normálně připojená a tak lze pokračovat s neúplným RAID polem. Je-li síťové připojení znovu obnoveno, tak se vzdálený disk zase normálně přidá a zesynchronizuje.

    Testoval jsem i rychlost přenosu a sledoval při tom zatížení. U kombinace DRBD + OCFS2 byla rychlost kopírování kolem 56M/s, zatím co u NBD + SW RAID + OCFS2 80M/s. Ovšem cenou za vyšší rychlost bylo zase vyšší zatížení procesorů během přenosu.
    12.5.2011 02:12 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Lokální SW RAID vytvořený z nbd zařízení. Každý nod má vyexportováno jedno blokové zařízení. Takže /dev/nbd0 je připojený přes 127.0.0.1 a zbytek( /dev/nbd1, ...) po síti.
    Jasně, tohle je taky možnost. Ale DRBD lépe řeší ty potenciálně nekonzistentní situace. A počítá s tím, že "každou chvíli není dotupný některý z disků", na což mdraid není úplně stavěný.
    U kombinace DRBD + OCFS2 byla rychlost kopírování kolem 56M/s
    Kopírování z jednoho disku na ten samý, nebo např. z /dev/zero na disk? Protože tam, kde mám DRBD nad HW RAIDem s BBWC je při zápisu evidentně limitem replikační Gb Ethernet. Byl bych rád, pokud byste napsal, na jakou rychlost sekvenčního zápisu se dostane KVM virtual machine nad OCFS2+DRBD+mdraid. A ideálně i jak rychlý je stejný zápis přímo na lokální mdraid bez DRBD. V mém případě Xen VM zapisuje z /dev/zero na DRBD replikovaný disk rychlostí 120 MB/s (VM filesystem ext3, 15 GB soubor, čas dd+sync, replikační Eth celou dobu na 997000 kbit/s). Pod DRBD tady na testování mám na obou stranách kartu HP SmartArray 212, RAID10, 4 obyčejné SATA disky. Sekvenční čtení souboru uvnitř VM je cca 200 MB/s.
    12.5.2011 07:34 Marián André | skóre: 10 | blog: Qblog
    Rozbalit Rozbalit vše Re: HA cluster
    Ako je nastaveny syncer v konfiguacii DRBD ?
    12.5.2011 12:15 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
      syncer {
        # it's recommended to use 30 % of GbE
        rate 33M;
        verify-alg sha1;
      }
    
    Teď nevím jistě, ale myslím že syncer rate se uplatňuje v okamžiku resychronizace, např. pokud jeden z uzlů nějakou dobu neběžel. Nastavení se doporučuje udělat tak, aby resychnronizace využila třetinu linky, a zbytek byl volný pro provozní zápisy.
    12.5.2011 13:13 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Jen pro doplnění - nastavení rate se dá změnit za běhu.
    12.5.2011 08:14 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Byl bych rád, pokud byste napsal, na jakou rychlost sekvenčního zápisu se dostane KVM virtual machine nad OCFS2+DRBD+mdraid. A ideálně i jak rychlý je stejný zápis přímo na lokální mdraid bez DRBD.
    Zkusím na to pamatovat. Až to otestuji, tak bych to upíchnul nejspíš opět do blogu, jako samostatný blogpost. Tady by to zapadlo. Každopádně díky za konkrétní čísla.
    10.5.2011 15:03 Scarabeus IV | skóre: 20 | blog: blogisek_o_gentoo | Praha
    Rozbalit Rozbalit vše Re: HA cluster
    No dost dobrej zazitek bylo treba rozchodit cele pacemaker & friends na gentoo.

    Nejlepsi sou ty releasy kde se musi spoustet autogen.sh (autoreconf).

    Zajimava otazka co maji lidi radsi, jestli openais/corosync nebo heartbeat, ja osobne se priklanim k prvni veci a cele Gentoo je tedy koncipovane kolem toho, ale cekam ze heartbeat pouziva taky nemale procento lidicek :)
    10.5.2011 15:19 Honza
    Rozbalit Rozbalit vše Re: HA cluster
    Heartbeat je obsolete vec, ktera se dal uz nevyviji (alespon ne lide z Novellu) a aktualni verze Pacemakeru je rozhodne lepsi provozovat s Corosyncem.
    10.5.2011 15:24 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Obsolete je možná tak komunikační démon, ale jinak heartbeat pasé není (jak jsem si také zpočátku myslel). Dále ho vyvíjejí lidé z Linbitu, který stojí mj. za zmíněným DRBD viz http://www.planet-ha.org/.
    11.5.2011 11:25 Honza
    Rozbalit Rozbalit vše Re: HA cluster

    To je sice pravda, nicmene je treba vzit do uvahy ze:

    • Pacemaker je vyvijen lidmi z Red Hatu
    • Red Hat vyviji take Corosync/OpenAIS
    • Novell (kdyz jeste existoval) presel na Corosync/OpenAIS
    -> Linbit si hraje na vlastnim pisecku. Otazka je, zda ma vic zakazniku HA Red Hat + Novell (resp. to co z nej zbylo a bylo prodano) nebo Linbit, jinymi slovy, co bude lepe otestovano a realneji nasazovano.

    Navic (aspon pokud jsem to spravne pochopil) Linbit HeartBeat spis udrzuje nez vyviji dal, coz nemusi byt v kratkodobem horizontu problem, ale v dlouhodobem byt muze.

    10.5.2011 15:22 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Zkoušel jsem obojí. Distribuční heartbeat mi způsoboval právě to panikaření. Ostatně v manuálu hned v následující kapitole zmiňuji jak to s nimi a jejich vývojem je.
    10.5.2011 15:48 Scarabeus IV | skóre: 20 | blog: blogisek_o_gentoo | Praha
    Rozbalit Rozbalit vše Re: HA cluster
    Ono je vzdycky jednodussi to nejak nabusit aby se to instalovalo jako binarni balik, ja jsem vcelku stastnej ze nam ty ebuildy fungujou, jsou to tak 3 tejdny (pokud bych to bral jako pracovni dobu) prace aby to delalo vsechno jak ma :)

    Jinak ja vim co a jak na tom heartbeat je, me spis zajimalo kolik lidi ho preferuje spis nez ten openais a proc...
    10.5.2011 15:59 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Aha. No tak proč, to jsem se také ptal. Důvodem je většinou starší distribuce. Corosync je (jak se zdá) preferován až od Pacemakeru 1.0.x

    Nejspíš za tím stály ty čáry máry kolem zásnub Mrkvosoftu a Novellu. Za vývojem heartbeatu stálo původně SuSe, jenže pod taktovkou Novellu nejspíš poněkud stagnoval.
    10.5.2011 16:16 edois
    Rozbalit Rozbalit vše Re: HA cluster
    Ahoj,

    co na tom chces vubec provozovat? Na nektery pouziti mi to prijde jako strasne zbytecna ztrata vykonu...
    10.5.2011 16:21 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Jaká ztráta výkonu probůh?! Nody si mezi sebou občas plnou jak se mají a jinak je celá sranda jenom o tom aby ti běželo co běžet má. Ba naopak. Přebytečný výkon lze v rámci clusteru využít lépe.
    10.5.2011 16:26 edois
    Rozbalit Rozbalit vše Re: HA cluster
    No jestli jsem to dobre pochopil z prednasky, na kterou jsem se asi pred rokem kouknul, tak to funguje tak, ze se vse vydava jen z jednoho serveru. Nebo jsem to pochopil spatne?
    10.5.2011 16:29 Marián André | skóre: 10 | blog: Qblog
    Rozbalit Rozbalit vše Re: HA cluster
    Dôraz v slovnom spojení "high-availability cluster" je na high-availability. Teda je to čosi úplne iné, ako high performance cluster.
    10.5.2011 16:34 edois
    Rozbalit Rozbalit vše Re: HA cluster
    Samozrejme, ale u spousty sluzeb jde docilit obojiho (kdyz pred to hodim nejaky loadbalancing, treba ipvs), proto mi to prijde, jako plytvani vykonem.
    10.5.2011 16:54 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    Ano. Pochopils to špatně. Ostatně, na výše odkazované stránce je to zmíněno jasně: "V případě nouze lze virtuální stroje spustit i na jediném nodu, ale za normálního provozu lze virtuální stroje podle potřeby a aktuálního zatížení mezi nody migrovat a dosáhnout tím optimálního rozdělení výkonu jak fyzických strojů, tak jejich hardwarových prostředků."
    10.5.2011 17:05 edois
    Rozbalit Rozbalit vše Re: HA cluster
    A neni lepsi mit "vsechno vsude", aby nebylo v pripade vypadku potreba nic prepinat atd., ale jen nechat balancer (automaticky) vyhodit failnute virtualy?
    10.5.2011 17:13 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    Jednak to daná služba musí podporavat - např. sama databáze musí umět multimaster replikaci. A i když to podporuje, musíte se o to u každé služby starat. Což např. v okamžiku aktualizací dá hodně práce. Takže pokud není extrémní požadavek na výkon, je cesta virtualizace lepší, i když doba výpadku je větší (nestačí třeba přehodit IP adresy, ale musí se nabootovat celý VM) a nedá se tím řešit výkon jedné aplikace.
    10.5.2011 17:21 edois
    Rozbalit Rozbalit vše Re: HA cluster
    Jasne, ze to nejde vsude, pisu jen, ze u spousty sluzeb to jde... (proto ten zcela puvodni dotaz na co vsechno to chce autor blogu pouzivat)
    10.5.2011 18:08 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: HA cluster
    .., i když doba výpadku je větší (nestačí třeba přehodit IP adresy, ale musí se nabootovat celý VM) a nedá se tím řešit výkon jedné aplikace.
    To není až tak docela pravda. U KVM lze přemigrovat stroj zaživa bez výpadku - prakticky odzkoušeno. Mimochodem, to je taky důvod proč jsem se v tom Pacemakeru začal hrabat až tak do hloubky - abych si udělal agenta pro KVM na míru, bez nutnosti používat libvirt, který má ony požadované funkcionality prozatím toliko v TODO.

    Bohužel "céčko" až tak dalece neovládám. Zpracovávat XML shellovým skriptem mi přijde jednodušší. Jinak bych to byl do toho libvirtu dodělal.
    11.5.2011 16:35 VSi | skóre: 28
    Rozbalit Rozbalit vše Re: HA cluster
    To není až tak docela pravda. U KVM lze přemigrovat stroj zaživa bez výpadku - prakticky odzkoušeno.
    Jasně, ale to beru spíš jako takovou věc navíc. Pokud mluvíme a vysoké dostupnosti, tak beru jako zásadní mít co nejkratší neplánované výpadky. Tj. jak dlouho to nepůjde, když aktivní uzel nečekaně zkolabuje (výpadek napájení ze všech zdrojů, vyhořelý HW apod.). A v tomto případě stroj musí nabootovat znovu. I když Xen má funkční (experimentální) implementaci realtime replikace obsahu RAM na druhý uzel, takže pak k pádu OS nedojde. Jsou s tím samozřejmě principielní problém, hlavně co se týče výkonu.
    abych si udělal agenta pro KVM na míru, bez nutnosti používat libvirt, který má ony požadované funkcionality prozatím toliko v TODO
    Kvůli nutnosti použít libvirt, který se mi zdál příliš komplikovaný, jsem dříve raději použil Xen. Protože pro něj je Heartbeat/Pacemaker agent skutečně triviální a hotový. Pro KVM jsem tehdy našel jen řešení přes libvirt, a to mi přišlo jako zbytečná potenciálně chybová vrstva. A jak píšete, možná požadované funkce ani neumí.

    Založit nové vláknoNahoru

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.