Byl vydán Fedora Asahi Remix 40, tj. linuxová distribuce pro Apple Silicon vycházející z Fedora Linuxu 40.
Představena byla služba Raspberry Pi Connect usnadňující vzdálený grafický přístup k vašim Raspberry Pi z webového prohlížeče. Odkudkoli. Zdarma. Zatím v beta verzi. Detaily v dokumentaci.
Byla vydána verze R14.1.2 desktopového prostředí Trinity Desktop Environment (TDE, fork KDE 3.5). Přehled novinek v poznámkách k vydání, podrobnosti v seznamu změn.
Dnešním dnem lze již také v Česku nakupovat na Google Store (telefony a sluchátka Google Pixel).
Apple představil (keynote) iPad Pro s čipem Apple M4, předělaný iPad Air ve dvou velikostech a nový Apple Pencil Pro.
Richard Biener oznámil vydání verze 14.1 (14.1.0) kolekce kompilátorů pro různé programovací jazyky GCC (GNU Compiler Collection). Jedná se o první stabilní verzi řady 14. Přehled změn, nových vlastností a oprav a aktualizovaná dokumentace na stránkách projektu. Některé zdrojové kódy, které bylo možné přeložit s předchozími verzemi GCC, bude nutné upravit.
Free Software Foundation zveřejnila ocenění Free Software Awards za rok 2023. Vybráni byli Bruno Haible za dlouhodobé příspěvky a správu knihovny Gnulib, nováček Nick Logozzo za front-end Parabolic pro yt-dlp a tým Mission logiciels libres francouzského státu za nasazování svobodného softwaru do praxe.
Před 10 lety Microsoft dokončil akvizici divize mobilních telefonů společnosti Nokia a pod značkou Microsoft Mobile ji zanedlouho pohřbil.
Fedora 40 release party v Praze proběhne v pátek 17. května od 18:30 v prostorách společnosti Etnetera Core na adrese Jankovcova 1037/49, Praha 7. Součástí bude program kratších přednášek o novinkách ve Fedoře.
Stack Overflow se dohodl s OpenAI o zpřístupnění obsahu Stack Overflow pro vylepšení OpenAI AI modelů.
Problematiku je přitom třeba vidět v širších souvislostech. Například dříve si každý průměrný automechanik-amatér byl schopen opravit spoustu závad na autě, dnes však musí do servisu, vybaveného diagnostickým zařízením ..Trend je zadávat služby třetím stranám, doba "kutilů" je již definitivně za námi ..
A nyní se dostáváme k problematice cloud computingu. Firma má možnost zadat péči i svá data i síť někomu vzdálenému, který se bude starat i o chod serveru, zálohování dat apod. Firma ušetří za běžnou údržbu, ale bude platit pravidelný poplatek někomu dalšímu. Lidé, kteří cloud computing propagují říkají, kolik se ušetří peněz, času a nervů, když třeba lokální server selže. Poskytovatel cloudu zajistí obnovu serveru sám.
Je to právě tahle cesta, kterou se bude ubírat logistika menších i větších firem? Odzvonilo lokálním firemním serverům? Ano, řada otázek je na místě: Jak jsou data uložená třeba na druhém konci světa bezpečná? Nemůže je poskytovatel zneužít, případně nedojde k prolomení ochrany? Nebudou vzdálené servery třeba v málo bezpečných teritoriích?
V neposlední řadě je tu také spolehlivost připojení. Ta stále stoupá, dnes je situace jiná, než třeba před 5 lety. Ale budou data dostupná třeba právě v okamžiku, kdy dojde ke klíčovému jednání se zákazníkem? Ano - zálohování dat. Ale to samo o sobě není triviální záležitost a někdo se mu musí věnovat.
Některé přední IT firmy dávají cloudu zelenou. V první řadě Microsoft. Bude to další krok ke změně světa ve stylu "Big Brother"? Firemní data hromadně v cizích rukou, trochu mě z toho mrazí, domýšlím-li si různé katastrofické scénáře, počínaje ještě větším zneužíváním cílených reklam. Ale já jsem ze starého světa - uznávám to. Rád bych znal názory mladších a v IT branži kompetentnějších osob v této záležitosti.
Tiskni Sdílej:
Pokud o HW, obnova škáluje pouze s velikostí databáze.No jo, pouze...
Pokud aplikační problém, proboha, jak se ti to mohlo stát, nepoužíváte QA?Samozřejmě, že zákazníci mají QA systém, ale to neznamená, že ten kdo ty systémy spravuje nemůže uděla chybu, nebo že se něco při testování nepodaří odhalit.
A jak se dělá QA systém? Hmm, jak by se asi dělal, udeláš dump z produktivního systému, instalace s importemAha, jak dlouho chceš exportovat tu 8TB velkou databázi? A jaký to bude mít performace impact na výkon? U velkých systémů by si udělal klasický bare metal disaster recovery, udělal post stepy na tom systému a pak připojil do sítě. To že ty děláš ve společnosti kde jsou 4 IT specialisti a databáze má 200GB je sice pěkné, ale zkus začít přemýšlet ve větších měřítcích, databáze co se sizují po TB, prostředí, kde se dodržuje ITIL. Zkus si taky představit situaci, že se nejedná o přeplácnutí starého QA systému, ale že zákazník chce klon svého rok starého produkčního SAPu. Takže musíš deploynout nový server, udělat storage provisioning, network konfiguraci, OS deployment a pak restore s post stepy.
8TB z pásek 4 dny? teda nevim co tam v tom helsinki používáte vy, ale..zastaralá LTO3 mechanika dává běžně 80-140MB/s (záleží na kompresi atd.)To sice jo, ale jen pokud je po FCčku připojená přímo k tomu serveru a ne přes sdílený backup ethernet po kterém teče hromada dalšího trafficu. A taky bych nezapomínal na to, že je potřeba ještě přehrát archivní logy, což si taky vezme nějaký ten čas.
klony dneska umí kdejakej midrangeJak přesně chceš klonovat systém, který si zazálohoval na pásky a na poli ho už nemáš?
ITIL je sada velice obecných doporučení, která se zhusta aplikují tak, aby prostě jen byla, ne aby něčemu pomohla.ITIL je sada doporučení, které se implementují u service providerů aby měli alespoň nějaké procesy na které se zákazník může spolehnout a ne aby každý dělal co se mu zlíbí, nebo třeba taky nic. A můžeš mi říct, kde přesně jsem řekl, že ITIL je něco skvělého a úžasného? Já totiž ITIL (respektive ITSM nějaké procesy) považuju za sice nutné, ale velké zlo bez kterých se velké společnosti neobejdou.
Za jak dlouho je server nasazen do prostředí, není fce vyjádřená počtem zaměstnanců, spíš platí - čím víc jsi zaoutsourcován, tím víc čekáš.Čím více má firma zaměstnanců tím více má zpravidla restriktivnější pravidla a procesy, které se při takovém nasazování musí dodržet - tedy více administrativy kolem, proto to trvá déle.
To sice jo, ale jen pokud je po FCčku připojená přímo k tomu serveru a ne přes sdílený backup ethernet po kterém teče hromada dalšího trafficu.
To je ovšem amaterismus nejhrubšího zrna Vše záleží na tom, jak moc si dat (a rychlosti případné následné obnovy) ceníš. Každý si snad spočte, že pokud mají data nějakou cenu, vezmu raději zálohu a letím s ní na druhý konec světa tryskáčem, kde provedu rychlou obnovu, než abych to cpal přes sdílený ethernet...
Čím více má firma zaměstnanců tím více má zpravidla restriktivnější pravidla a procesy, které se při takovém nasazování musí dodržet - tedy více administrativy kolem, proto to trvá déle.
Právě z toho důvodu, že jsou pravidla restriktivnější a procesy jednotné, přesně popsané a v principu jednoduché, trvá jejich nasazení kratší dobu. Nevím kde jsi vyčetl, že to trvá déle...
Právě z toho důvodu, že jsou pravidla restriktivnější a procesy jednotné, přesně popsané a v principu jednoduché, trvá jejich nasazení kratší dobu. Nevím kde jsi vyčetl, že to trvá déle...V praxi, protože ne každý požadavek zákazníka bude v service description partiřné služby. :)
To je ovšem amaterismus nejhrubšího zrna Vše záleží na tom, jak moc si dat (a rychlosti případné následné obnovy) ceníš. Každý si snad spočte, že pokud mají data nějakou cenu, vezmu raději zálohu a letím s ní na druhý konec světa tryskáčem, kde provedu rychlou obnovu, než abych to cpal přes sdílený ethernet...Všechno je to o penězích, zkus si spočítat kolik by tě stála dedikovaná LTO4 mechanika pro každý server v datacentru kde máš 10 000 serverů :) A taky nevím kde si vzal to, že ta serverovna je na druhém konci světa. A je to sdílený backup ethernet (tedy ethernet dedikovaný pro zálohování, ale sdílený mezi všemy servery co se zálohují) a i po něm to jede 60MB/s, zkus si spočítat cenový rozdíl mesi SANem a tím Ethernetem a možná zjistíš, že těch 20MB/s rozdíl ti za to ve většině případů nestojí. Jistě, pokud máš pár serverů a jeden SAN, tak není problém do toho SANu do jiné zóny připojit ještě tu jednu páskovou knihovnu a zálohovat přímo po SANu. A BTW hodně štěstí s nakládáním StorageTek Enterprise páskových knihoven do tryskáče a s následnou instalací v cílovém datacentru. :) Nebo si fakt myslíš, že si prostě z té knihovny ty pásky vytáhneš, pošleš a tam je do nějaké jiné knihovny strčíš? Hodně štěstí s podporou od vendorů...
Pravda, záměr může být to, že je ani vědět nechci, ale to je jiná story.Pokud je tam kde pracuješ korporátní jazyk angličtina, je pochopitelné, že český termín je pro Tebe zbytečně zabraná kapacita v paměti..:)
Je to záměr. On se k tomu hrdě hlásí.Mohu požádat o link? Ať jsem v obraze...
Nuz velke objekty ktore nerobia v IT obycajne (imo 98% pripadov) zaplatia service providera.Jemu akurat povedia ze co chcu Hranica medzi outsourcingom a cloudom je nejasna: obcas hardware vlastni service provider, obcas jeho zakaznik a casto je vlastnictvo hardweru tazko definovatelne (rozne druhy leasingu ... ) - rovnako sa aj lisi co este je pod spravou offshoringu.
Inak viem ako to chodi v malej firme, dakedy davno som v jednej takej robil. Je to ine, a aj ked niekedy mam pocit ze lepsie asi sa uz nevratim.Hlavní benefit za cloudem ve velkých společnostech je business agility, jak dlouho si myslíš, že trvá deploynout nový server ve společnosti s 20 000 zaměstnanci? I virtualizovaný server se do produkce dává třeba 2 měsíce, s cloud infrastrukturou se dá tohle snížit třeba na 2 dny, nebo i na pár hodin.Co se dá reálně stihnout je jedna věc, dohodnuté SLA věc druhá .
Pokud jsou data nějakým způsobem šifrovaná je skoro jedno kde jsou.Pokud to nebylo myšleno jako vtip, tak doporučuju se trochu víc zamyslet. Prvně ta věta tak příšerně zjednodušuje, že je už od začátku jasné, že je to kec. Druhá věc je, že ta data jsou aktivně používána, tudíž v rozšifrované podobě.
... Bohužel v podobě, jak je zákazníkům dnes vnucován je to IMHO největší katastrofa v dějinách IT a počátek cesty společnosti do otroctví.Napriek mojmu zvysenemu prahu paranoie a nutnej davke opatrnosti som sa rozhodol presunut 3 mnou spravovane firmy pod google apps. Zatial (!) som na ziaden problem nenarazil a neregistrujem ziaden naznak toho, ze by nejake interne informacie boli zneuzite. Je pravda, ze cas ukaze, firmy mozu lahko podlahnut politickym tlakom a data vydat, ale to mi pride pravdepodobnejsii nasrany zamestnanec, ktory vytrubi tajne veci svetu. A to je potom jedno, kde tie data lezia.
... být závislý na připojení do InternetuHm? Kolko % ceskych firiem by lahlo popolom, alebo sa otriaslo v zakladoch, keby im vypadla konektivita dajme tomu na rok? Odhadujem dobrych 20-40%.
... nemít pořádnou kontrolu nad aplikacemi, které s těmi daty pracujíPocitace zamestnancov velkeho mnozstva firiem ( chce sa mi povedat vacsiny ) su plne aplikacii, ktore nie su pod kontrolou a nikto poriadne nevie, co v skutocnosti robia ( preslaveny skype, rozne picovinky a hry, samotny windows ako taky, virusy, alebo akykolvek closedsource software nepochadzajuci od dobre znameho dodavatela ).