Byla vydána nová stabilní verze 24.05 linuxové distribuce NixOS (Wikipedie). Její kódové označení je Uakari. Podrobný přehled novinek v poznámkách k vydání. O balíčky se v NixOS stará správce balíčků Nix.
Byla vydána nová verze 1.48.0 sady nástrojů pro správu síťových připojení NetworkManager. Novinkám se v příspěvku na blogu NetworkManageru věnuje Fernando F. Mancera. Mimo jiné se v nastavení místo mac-address-blacklist nově používá mac-address-denylist.
Před 25 lety, 31. května 1999, započal vývoj grafického editoru Krita (Wikipedie). Tenkrát ještě pod názvem KImageShop a později pod názvem Krayon.
Farid Abdelnour se v příspěvku na blogu rozepsal o novinkám v nejnovější verzi 24.05.0 editoru videa Kdenlive (Wikipedie). Ke stažení brzy také na Flathubu.
David Revoy, autor mj. komiksu Pepper&Carrot, se rozepsal o své aktuální grafické pracovní stanici: Debian 12 Bookworm, okenní systém X11, KDE Plasma 5.27, …
Wayland (Wikipedie) byl vydán ve verzi 1.23.0. Z novinek lze vypíchnout podporu OpenBSD.
Craig Loewen na blogu Microsoftu představil novinky ve Windows Subsystému pro Linux (WSL). Vypíchnout lze GUI aplikaci pro nastavování WSL nebo správu WSL z Dev Home.
V sobotu 1. června lze navštívit Maker Faire Ostrava, festival plný workshopů, interaktivních činností a především nadšených a zvídavých lidí.
Webový server Caddy (Wikipedie) s celou řadou zajímavých vlastností byl vydán ve verzi 2.8 (𝕏). Přehled novinek na GitHubu.
Byla vydána verze 3.0 (@, 𝕏) svobodného softwaru HAProxy (The Reliable, High Performance TCP/HTTP Load Balancer; Wikipedie) řešícího vysokou dostupnost, vyvažování zátěže a reverzní proxy. Detailní přehled novinek v příspěvku na blogu společnosti HAProxy Technologies.
Delší dobu tu nebylo slyšet o aktivitách vpsFree.cz (= dlouho jsem tu nespamoval). Ne, neumřeli jsme, jenom jsme měli hodně starostí s připravováním operace "big bang". Dostali jsme nápad, že bychom tu nejzajímavější část mohli dokumentovat živě na ábíčku. Začnu tedy předzápiskem, který bude úvodem do toho, co se chystá.
Desktopové servery z komoditního hardwaru jsou fajn. Ale mají svoje nevýhody. Ne snad, že by byly nespolehlivé, ale začíná to s nimi být problematické, když bychom je chtěli naskládat do racku. Buďto bychom museli navrhnout rozměrově efektivní vlastní řešení, jak naskládat desktop ATX desky do racku, aby se uchladily, nebo použít větší skříně. Dalším háčkem je absence IPMI.
Jsme v bodě, kdy se nám přechod do racku už skoro vyplatí (přidávat další towerové servery nedává moc smysl a měsíční náklady rack vs. police vychází dost podobně). Takže jsme udělali na naše poměry obrovskou investici a nakoupili jsme serverový hardware, který zítra nainstalujeme do racku. Máme v plánu celou infrastrukturu přizpůsobit pro failover, aby VPSky měly co nejvyšší možnou dostupnost.
Jde o servery Supermicro, zavádíme shared storage, takže budeme mít storage node a virtualizační nody.
Zkusíme reportovat, co právě vyvádíme a jak nám to jde formou jednoho pravidelně updatovaného blogového zápisku. Pokusíme se dohodnout a pořídit nějakou fotodokumentaci, oficiálně se v datacentru nesmí fotit, uvidíme zítra. Snad udělají výjimku.
Tiskni Sdílej:
Zajímá vás, jak se to bude vyvíjet? Chcete sledovat průběh?ano, nicmene bych uvital obsahlejsi komentar.. napr. proc jste zvolili OCFS2 (jsou nejake alternativy, jestli ano, proc tato volba?) a pod. Ne snad z duvodu, abych rejpal, ale abych se neco priucil. Pro me je toto zcela neznama zeme (terra incognita), takze uvitam jekekoli vysvetlujici komentare - klidne v poznamkach pod zapiskem, aby to nerusilo ostatni, problematiky znale.
OCFS2 - jednak jede pod Debianem líp než GFS2 a jednak je podle benchmarků o něco lepší ve čtecích operacích (které u nás převažují).
Jinak pak existují ještě distribuované FS, jako Lustre (kernel záležitost, pro větší clustery) a třeba GlusterFS (co jsem ho zkoušel naposled, tak se na něj nedalo spolehnout) a mnohé další, jenže nic z toho nevyhovuje naším potřebám, takže v podstatě nebylo na výběr než OCFS2.
[55921.465065] Call Trace: [55921.465065] [<ffffffffa0449421>] ? ocfs2_compute_replay_slots+0x31/0x10f [ocfs2] [55921.465065] [<ffffffffa0449421>] ? ocfs2_compute_replay_slots+0x31/0x10f [ocfs2] [55921.465065] [<ffffffffa044ccec>] ? ocfs2_journal_load+0x1d0/0x2b1 [ocfs2] [55921.465065] [<ffffffffa0473525>] ? ocfs2_fill_super+0x19a2/0x2101 [ocfs2] [55921.465065] [<ffffffff8118aa8f>] ? snprintf+0x36/0x3b [55921.465065] [<ffffffff810e9f9e>] ? get_sb_bdev+0x137/0x19a [55921.465065] [<ffffffffa0471b83>] ? ocfs2_fill_super+0x0/0x2101 [ocfs2] [55921.465065] [<ffffffff810e9675>] ? vfs_kern_mount+0xa6/0x196 [55921.465065] [<ffffffff810e97c4>] ? do_kern_mount+0x49/0xe7 [55921.465065] [<ffffffff810fdabb>] ? do_mount+0x75c/0x7d6 [55921.465065] [<ffffffff810d829a>] ? alloc_pages_current+0x9f/0xc2 [55921.465065] [<ffffffff810fdbbd>] ? sys_mount+0x88/0xc3 [55921.465065] [<ffffffff810089c2>] ? system_call_fastpath+0x16/0x1b [55921.465065] Code: 0f 1f 44 00 00 49 89 c7 fa 66 0f 1f 44 00 00 65 4c 8b 04 25 b0 ea 00 00 48 8b 45 00 49 01 c0 49 8b 18 48 85 db 74 0d 48 63 45 18 <48> 8b 04 03 49 89 00 eb 11 83 ca ff 44 89 f6 48 89 ef e8 a1 f1 [55921.465065] RIP [<ffffffff810dffaa>] __kmalloc+0xd3/0x136 [55921.465065] RSP <ffff880103e21ba8> [55921.465065] ---[ end trace 3f96fca7c9cbfb04 ]--- [55941.839304] o2net: accepted connection from node mail02.fxclub.org (num 1) at 192.168.1.2:7777 [55946.003594] o2dlm: Node 1 joins domain E4B99C68B65449068DC403326917DC29 [55946.003673] o2dlm: Nodes in domain E4B99C68B65449068DC403326917DC29: 0 1Reakce z konference... Having built Oracle RAC clusters with OCFS and OCFS2, I would say that OCFS2 just isn't of stable quality, and is only suitable for light use. There have been open, outstanding bugs with no development for years. You should try GFS2 which is production ready.
Ted zkousim XEN4.To jsem nedávno dělal taky. Oproti 3.x Xen 4 výkonnostně propadl.
To je ta prace kvuli ktery je dobry bejt admin :) Zajimavy, neco takovyho jsem delal pro <nejmenovanej server s mrtvolama a pornem>, jenom s jinym storage, rad si poctu o vasem.
Ten storage server krici ZFS! Ale pokud to nechcete sdilet pomoci NFS, tak se neda nic delat, hosi z Lustre se na tu solarisovou verzi vykaslali kdyz byli jeste pod Sunem, takze ted uz nikdy nebude. No, jeste se da pouzit solaris jako storage a ESXi jako hypervizor (jestli ho neprestali nabizet), ale to je na dlouhy lokte.
Kazdopadne zajimavy tema. Treba by vam aji redakce abcl vydala "pripadovou studii" jako clanek, pokud doplnite nejaky manazersky kecy o usporenych procentech.
Dík za dokumentaci
vlastní balíček DRBD 8.3.7 (z debianní verze nešel ani zkompilovat modul).Oprava se nechá najít na netu, je to něco 2 odstraněné, 6 přidaných řádků. Nicméně mám ten pocit, že to ani není potřeba, DRBD ovladač se backportuje i do jádra 2.6.32 ve stable.