abclinuxu.cz AbcLinuxu.cz itbiz.cz ITBiz.cz HDmag.cz HDmag.cz abcprace.cz AbcPráce.cz
Inzerujte na AbcPráce.cz od 950 Kč
Rozšířené hledání
×
    včera 19:00 | Zajímavý projekt

    Na crowdsourcingové platformě Crowd Supply byla spuštěna kampaň na podporu open source biometrického monitoru ve tvaru hodinek HealthyPi Move. Cena je 249 dolarů a plánovaný termín dodání listopad letošního roku.

    Ladislav Hagara | Komentářů: 1
    24.5. 22:22 | Upozornění Ladislav Hagara | Komentářů: 9
    24.5. 17:44 | Nová verze

    Firma Murena představila /e/OS verze 2.0. Jde o  alternativní sestavení Androidu bez aplikací Google. Mezi novinkami je podrobnější nastavení ochrany soukromí před sledováním aplikacemi. Murena prodává několik smartphonů s předinstalovaným /e/OS (Fairphone, repasovaný Google Pixel 5).

    Fluttershy, yay! | Komentářů: 0
    24.5. 14:33 | Zajímavý software

    Do 30. května lze v rámci akce Warhammer Skulls 2024 získat na Steamu zdarma hru Warhammer 40,000: Gladius - Relics of War.

    Ladislav Hagara | Komentářů: 1
    24.5. 13:33 | Nová verze

    HelenOS (Wikipedie), tj. svobodný operační systém českého původu založený na architektuře mikrojádra, byl vydán ve verzi 0.14.1. Přehled novinek v poznámkách k vydání. Vypíchnou lze nabídku Start. Videopředstavení na YouTube.

    Ladislav Hagara | Komentářů: 2
    23.5. 23:22 | Zajímavý software

    BreadboardOS je firmware pro Raspberry Pi Pico (RP2040) umožňující s tímto MCU komunikovat pomocí řádkového rozhraní (CLI). Využívá FreeRTOS a Microshell.

    Ladislav Hagara | Komentářů: 0
    23.5. 16:55 | Nová verze

    Vývojáři KDE oznámili vydání balíku aplikací KDE Gear 24.05. Přehled novinek i s náhledy a videi v oficiálním oznámení. Do balíku se dostalo 5 nových aplikací: Audex, Accessibility Inspector, Francis, Kalm a Skladnik.

    Ladislav Hagara | Komentářů: 10
    23.5. 12:55 | Nová verze

    Byla vydána (𝕏) nová verze 18.0.0 open source webového aplikačního frameworku Angular (Wikipedie). Přehled novinek v příspěvku na blogu.

    Ladislav Hagara | Komentářů: 0
    22.5. 23:44 | Pozvánky

    V neděli 26. května lze navštívit Maker Faire Rychnov nad Kněžnou, festival plný workshopů, interaktivních činností a především nadšených a zvídavých lidí.

    Ladislav Hagara | Komentářů: 0
    22.5. 16:33 | Nová verze

    Byla vydána nová stabilní verze 3.20.0, tj. první z nové řady 3.20, minimalistické linuxové distribuce zaměřené na bezpečnost Alpine Linux (Wikipedie) postavené na standardní knihovně jazyka C musl libc a BusyBoxu. Z novinek lze vypíchnou počáteční podporu 64bitové architektury RISC-V.

    Ladislav Hagara | Komentářů: 0
    Podle hypotézy Mrtvý Internet mj. tvoří většinu online interakcí boti.
     (84%)
     (4%)
     (6%)
     (6%)
    Celkem 599 hlasů
     Komentářů: 16, poslední 14.5. 11:05
    Rozcestník

    Open source business intelligence – Pentaho: ETL

    21. 12. 2010 | Vratislav Beneš | Návody | 6172×

    Pentaho – ETL (Extract, Transform, Load), aneb jak získávat a automatizovat nahrávání dat z rozličných zdrojů a formátů. V minulém díle jsme si rozběhli Pentaho a nyní se (nejen) do něj naučíme nahrávat data.

    Výchozí znalosti a předpoklady

    Úspěšné zvládnutí instalace a následné upravení systému vyžaduje:

    1. Základní znalost prostředí Linux
    2. Základní znalost SQL
    3. Nainstalovanou Javu
    4. Základní znalost JavaScriptu
    5. Běžící PostgreSQL s právy pro vytváření databází
    6. Znalost administračních nástrojů pro PostgreSQL

    O systému business intelligence se dále budeme bavit jako o BI.

    Cíl

    Po této kapitole budete vědět, jak se vytváří a spouští ETL v aplikaci Kettle. Zároveň se naučíte nastavit automatické spuštění ETL pomocí crontab.

    Obsah

    1. Obecně o ETL
    2. Jak ETL funguje
    3. Pentaho a ETL
    4. Konfigurace Pentaho Data Integration
    5. Práce s Pentaho Data Integration
    6. Vzhůru do našeho prvního ETL

    Obecně o ETL

    Jedením z poslání BI je zpracovávat a analyzovat aktuální data, která se po čase stanou historickými. Do BI vstupují různorodé typy systémů a s tím je spojen i problém s rozdílností datových formátů a přenosových médií. Vstupy mohou poskytovat svá data v různých intervalech. Některé produkční systémy generují denní data, státní úřady/výzkumné agentury mohou poskytovat data měsíčně, kvartálně nebo také pouze adhoc. Vstupní data nemusejí být ve stejné datové formě (textový soubor, XLS, databáze ...) nebo kódování. Kupříkladu produkční systém může umožňovat přístup přímo ke své relační databázi, data z banky přijdou e-mailem v textovém souboru a státní instituce vystaví svá data na web v excelovém souboru. V praxi existuje nesčetné množství forem, v nichž se data doručují ke zpracování. Se všemi se musí vypořádat vstupní brána každého BI systému, a to ETL. Jedná se o kriticky důležitou oblast, která častokrát determinuje schopnosti celého BI řešení. Ono nelze reportovat data, která nemáte v systému :-)

    ETL nebo-li Extract Transform Load je sada nástrojů, která z nesourodých datových zdrojů separuje adekvátní data, upravuje je a poté nahrává do datového skladu. Tuto činnost provádí buď manuálně nebo automaticky podle časového plánu. O výsledku by mělo ETL podat zprávu (e-mail, log) administrátorovi systému BI.

    Jak ETL funguje

    Zdroje pro ETL

    Mezi základní zdroje, z nichž může ETL čerpat data, jsou věškeré formy hromadného skladování dat. Mohou to být soubory, tabulky, databáze (relační, souborové), OLAP systémy anebo také webové stránky, či prostý text.

    E – Extract

    Jak jsme uvedli výše, tak ETL je zkratka pro Extract, Transform, Load. Sled písmen ve zkratce také vystihuje posloupnost jednotlivých kroků v celém procesu nahrávání dat. Extract znamená něco vyjmout, vytáhnout. V případě ETL tím „něco“ jsou zdrojová data pro budoucí data datového skladu. Ve zdrojových datech je nutné zmapovat výskyt námi požadovaných dat. V praxi se ve většině případů jedná o sloupce v databázích nebo excelových tabulkách. Je nutné mít na zřeteli kódování textů a regionální nastavení formátů čísel.

    T – Transform

    Mnohokrát je třeba některé informace rozdělit na dílčí nebo převést jejich formát. Příkladem může být datum ukrytý v názvu souboru nebo složený kód pro místo.

    Příklady: Sběr dat z poboček firmy. Data se generují každý den a ukládají se do souboru podle klíče město_datum.txt

    Název souboru: brno_20101028.txt 
    Cíl: město = brno, datum='28-10-2010' 
    

    Jiným požadavkem může být třeba převod dat ve formě kontingenčních tabulek do normalizované formy.

    Tyto požadavky jsou v ETL řešeny pomocí transformací, čili převodů. Děje se tak uvnitř samotného ETL. Transformací může být několik a mohou probíhat paralelně. Výsledkem jsou zpracovaná data pro konečné nahrávání do datového skladu/databáze.

    L – Load

    Zpracovaná data po transformaci se ukládají do datového skladu/databáze.

    Popsaný proces platí pro nahrávání dat do BI. Pokud naopak exportujeme data z BI, pak je proces obrácený. Data se čtou z datového skladu/OLAPu a ukládají se do formátů vhodných k výměně dat (txt, XLS, DBF ...) nebo přímo do externích databází. I v tomto případě mohou probíhat transformace dat.

    Pentaho a ETL

    V Pentaho jsou ETL řešena pomocí aplikace Kettle, alias Pentaho Data Integration. Jedná se o stand-alone aplikaci běžící v Javě, která umožňuje stavět, spravovat a spouštět jednotlivé ETL. Svoje data ukládá do relační DB nebo do souborů XML. Pro zvýšení výkonu je možné sestavit cluster a ETL spouštět na více strojích současně.

    Instalace Kettle

    Ze sourceforge.net si stáhněte Pentaho data integration a rozbalte ji do libovolného adresáře.

    wget http://sourceforge.net/projects/pentaho/files/Data%20Integration/4.1.0-stable/pdi-ce-4.1.0-stable.tar.gz/download
    tar xzf pdi-ce-4.1.0-stable.tar.gz
    

    Vytvoří se vám podadresář data-integration, do kterého si přejděte a vypište si všechny .sh soubory.

    Výsledkem je:

    carte.sh*
    encr.sh*
    generateClusterSchema.sh*
    kitchen.sh*
    pan.sh*
    runSamples.sh*
    set-pentaho-env.sh*
    spoon.sh*
    

    V tento okamžik jsou pro nás důležité soubory spoon.sh, pan.sh a kitchen.sh. Prvně jmenovaný spoon.sh spouští grafické prostředí pro návrh a provoz vlastních ETL, která se skládají z transformací a jobů (více o nich o malou chvilku později). Pan.sh a kitchen.sh nám umožní nakonfigurované transformace (pan) a joby (kitchen) spouštět z příkazové řádky. Pojďme si ale nejdříve nakonfigurovat samotný PDI.

    Konfigurace PDI

    PDI k běhu vyžaduje úložiště. To může být řešeno buď souborovým systémem nebo relační databází. My si sestavíme PDI proti relační databázi PostgreSQL. Konfigurace se souborovým datovým úložištěm je velmi podobná. Na změny upozorním.

    1. Spušťení spoon.sh

    ./spoon.sh*
    

    V případě souborového úložiště pokračujte bodem 4

    2. Vytvoření nové databáze pentaho_pdi (název může být libovolný)

    postgres=# CREATE DATABASE pentaho_pdi  WITH OWNER = pentaho_user;
    

    3. Vytvoření nové repository

    1. V repository connection klikněte v pravém horním rohu na zelené plus
    2. Pentaho


    3. Vyberte první volbu – Kettle database repository a stiskněte OK
    4. Pentaho

    5. Vytvořte databázové připojení
      1. Pojmenujte si připojení - „pentaho pdi“
      2. Ze seznamu vyberte databázový systém - „PostgreSQL“
      3. Host name – stoj na kterém běží databáze
      4. Database name - název námi vytvořené databáze – pentaho_pdi
      5. Port number – port databázového stroje „5432“
      6. User anem - uživatel s právy vytvářet objekty - „penthao_user“
      7. Password – heslo pro daného uživatele „password“
      8. Access – typ připojení „JDBC“
      9. Otestuje připojení stisknutím Test
      10. A závěrečné OK :-)

      Pentaho

    6. K nově vytvořenému připojení vytvoříme vlastní repository. Doplňte info o ID a Name a stiskněte Create or Upgrade

      Pentaho

    7. Pokud opravdu chcete vytvořit repository a databázové objekty, 2x kladně odpovězte, až se dostanete po výpisu SQL kódu ke spuštění :-) Buď můžete daný kód spustit přímo z PDI nebo si SQL zkopírujte a spusťte z konzole, kde si jej múžete také odkrokovat

      Pentaho

    8. Zavřete okno SQL editoru (i když vše proběhne jak má, tak editor zůstane otevřený a svádí k opětovnému spuštění)

    9. Nyní se můžeme připojit k nové repository – stisknutím OK
    10. Zadejte defaultní heslo „admin“ a stiskněte OK

      Pentaho


    Práce s Pentaho Data Integration

    Nyní máme vytvořenou vlastní repository, kam se nám budou ukládat výsledky naší práce. PDI pracuje s dvěma typy objektů: transaformation a job.

    Transformation – jsou výkonné prvky, které zajišťují převod importovaných dat do toku, na něm spouštění skriptů a jeho výsledného exportu do cílového úložiště.

    Job – je soubor transformací a k nim přiřazených obslužných nástrojů (přístup na FTP, odesílání e-mailů, zipování souborů apd), které tvoří ucelené ETL.

    Na jednoduchém příkladě si předvedeme jak sestavit ETL a spustit jej.

    Z menu File nebo si pomocí stisknutí Ctrl+N vyberte Transformation. V levé části se objevila řada položek začínajících Input. Jedná se komponenty, které můžete použít ve své transformaci. Každá transformace musí obsahovat nějaký vstup Input a výstup Output. Kettle zná velké množství vstupních/výstupních formátů a technik. Vedle běžně používaných textových souborů a XLS souborů to jsou relační a MS Access databáze, dbase, OLAP (pomocí mdx), a také umí spouštět dotazy na SAPu. V případě, že je nutné mezi vstupem a výstupem data upravit, pak nám Spoon nabízí nástroje pro úpravu dat Transform. Můžeme tak upravovat jednotlivé pole, spojovat řádky, upravovat řetězce a mnohé další. Nástroje pro řízení toku (spojování dávek z několika souborů, filtrování řádků apod.) naleznete pod položkou Flow. Velkou silou Kettlu je možnost vytváření vlastních skriptů. Konkrétně se jedná o JavaScript, SQL a Javu. Tuto vlastnost oceníte zejména při konsolidaci dat z cizích zdrojů (od dodavatelů, výzkumných agentur apod.).

    Vzhůru do našeho prvního ETL

    Naším cílem bude importovat textový soubor ve formátu csv do databáze. Nejdříve si vytvoříme cílovou databázi

    postgres=# CREATE DATABASE pentaho_data  WITH OWNER = pentaho_user;
    

    Vstup

    Do libovolného adresáře si stáhněte tento soubor a rozbalte jej. Obsahuje smyšlená denní data ze třech poboček.

    Ve spoon si z nabídky Input myškou přetáhněte na plochu vpravo položku Text file input a z nabídky Output položku Table output.

    Výsledek by měl být následující:

    Pentaho

    Nyní si pojďme nakonfigurovat vstup naší transformace. Dvojklikem na Text file input se vám otevře nabídka konfigurace komponenty textového souboru.

    1. Nejdříve si pomocí Browse vyberte jeden z rozbalených souborů – třeba brno_20101128.csv. Tlačítkem Add jej přidáte do seznamu zpracovávaných souborů

    Pentaho

    2. Jelikož se jedná o strukturovaná data, musíme pospat obsah vstupního souboru. To učiníme v záložce Content. V našem případě se jedná o tyto položky

    1. Filetype – CSV
    2. Separator – ;
    3. Enclosure – "
    4. Header – ano
    5. Number of header lines – 1
    6. Format – Unix
    7. Encoding – UTF-8

    Pentaho

    3. Pole, které budeme ze souboru číst, jsou popsány právě hlavičkou ze souboru. Jejich přesnou definici určíme v záložce Fields. Uprostřed dole stiskněte tlačítko Get fields, čímž se na základě prvních 100 řádků odhadne datový typ a rozsah jednotlivých polí. V našem případě je výsledek následující

    Pentaho

    4. Vstup máme nastavený a zbývá nám říct výstupu Table output, kde má vzít data a jak je má ukládat. Při stisknutém shiftu klikněte myškou na Text file input a táhněte na Table output, kde myšku pusťte. Tím vytvoříte propojení mezi oběma komponentami.

    Pentaho

    Výstup

    Obdobně jako při přípravě repozitory si vytvoříme konektor do cílové databáze. Dvojklik na Table output nám otevře konfigurace výstupu. Vedle položky Connection stiskněte tlačítko New a nastavte konektor. Výsledek by měl být následující:

    Pentaho

    Databáze je prázdná, takže do jména cílové tabulky Table target můžeme vepsat libovolné jméno. Zvolme třeba pobocky_data. Jelikož tato tabulka neexistuje, neexistují ani její sloupce. Snadno si je můžeme vytvořit přímo ze Spoon. Zaškrtněte checkbox Specify database fields, běžte do záložky Database fields a stiskněte tlačítko Get fields. Tím se nám načtou pole definované ve vstupu.

    Pokud vám tento popis vyhovuje, zvolte tlačítko SQL a Spoon vám vygeneruje patřičný sql dotaz pro vytvoření tabulky pobocky_data.

    CREATE TABLE pobocky_data
    (
      smena BIGINT
    , stroj VARCHAR(2)
    , pocet_vyrobenych_kusu BIGINT
    )
    ;
    

    Vzhledem k povaze dat je vhodné daný dotaz mírně upravit, a to takto:

    CREATE TABLE pobocky_data
    (
      smena SMALLINT
    , stroj VARCHAR(12)
    , pocet_vyrobenych_kusu INT
    )
    ;
    

    Stiskněte OK a Spoon spustí příkaz.

    Nyní máme definované jednoduché ETL, které nám nahraje právě jeden soubor do cílové tabulky. Pojďme si ho spustit.

    Transformaci si uložte File/Save as třeba jako import_datapobocky. Z horní lišty stiskněte zelenou šipku a nebo stiskněte F9. Otevře se vám formulář s informacemi o dané transformaci. Jednotlivými detaily se budeme zabývat později. Zvolte Launch. Výsledek by měl být následující

    Pentaho

    Data máme nahraná :-)

    Automatizace procesu nahrávání dat

    Vytvořili jsme si tranformaci, která nám importuje obsah pouze jednoho souboru. V našem případě, ale potřebujeme importovat data za každý den a je nemyslitelné s každým souborem ručně přepisovat cestu v Text file input. Název importovaného souboru potřebujeme měnit parametricky. Kettle na toto myslí a poskytuje aparát parametrů, které fungují jak v transformacích, tak i v úlohách.

    Vytvoření parametru

    Do libovolného místa na pracovní ploše klikněte pravou myškou a zvolte Transformation settings nebo stiskněte Ctrl+T. V záložce Parameters vytvořte nový parametr filename s výchozí hodnotou „brno_20101129.csv“ a dejte OK. Tím jsme vytvořili dynamickou položku, kterou můžeme ovládat vně naší transformace. Výchozí hodnotu jsme nastavili na název jiného souboru pouze pro náš cvičný případ.

    Pentaho

    Aplikace parametru

    V našem případě potřebujeme měnit název nahrávaného souboru pomocí parametru filename. Otevřete si vlastnosti objektu Text file input, vyberte soubor ze seznamu souborů ke zpracování a dejte Edit. V cestě k souboru nahraďte jeho jméno takto ohraničeným parametrem ${filename} a dejte znovu Add.

    Pentaho

    Spuštění transformace s parametrem

    Nyní si uložte transformaci a spusťte ji. Než stiskněte tlačítko Launch, tak si v levé části formuláře povšimněte nového parametru filename a u něj uvedené výchozí hodnoty.

    Pro zjištění stavu běhu transformace se můžete podívat do logu v Execution Results - Logging, kde jedna z položek bude následující:

    Text file input.0 - Opening file: /home/vratidlo/pentaho/brno_20101129.csv

    To nám říká, že námi nastavený parametr zafungoval.

    Použití parametru

    Aby nám byl parametr užitečný, je třeba zajistit jeho pohodlné nastavování. Nejčastěji je parametr transformace ovládán z nadřazené úlohy. Něky ale není úlohu třeba vytvářet a postačí nám pouhá transformace. My si náš parametr zavoláme z shellu, a to pomocí skriptu pan.sh

    ./pan.sh 
    Options:
      -rep        = Repository name
      -user       = Repository username
      -pass       = Repository password
      -trans      = The name of the transformation to launch
      -dir        = The directory (dont forget the leading /)
      -file       = The filename (Transformation in XML) to launch
      -level      = The logging level (Basic, Detailed, Debug, Rowlevel, Error, Nothing)
      -logfile    = The logging file to write to
      -listdir    = List the directories in the repository
      -listtrans  = List the transformations in the specified directory
      -listrep    = List the available repositories
      -exprep     = Export all repository objects to one XML file
      -norep      = Do not log into the repository
      -safemode   = Run in safe mode: with extra checking enabled
      -version    = show the version, revision and build date
      -param      = Set a named parameter =. For example -param:FOO=bar
      -listparam  = List information concerning the defined named parameters in the specified transformation.
    

    Výpis jednotlivých parametrů je výmluvný, takže se pojďme podívat do naší repository

    ./pan.sh -rep pentaho_pdi -user admin -pass admin  -listtrans
    INFO  09-12 11:13:40,191 - Using "/tmp/vfs_cache" as temporary files store.
    INFO  09-12 11:13:41,115 - Pan - Start of run.
    INFO  09-12 11:13:41,213 - RepositoriesMeta - Reading repositories XML file: /home/vratidlo/.kettle/repositories.xml
    import_datapobocky
    

    Tímto jsme si vypsali veškeré transformace, které v naší repozitory máme uložené. Vidíte, že je pouze jedna, a to import_datapobocky. Pojďme se podívat na její parametry:

    ./pan.sh -rep pentaho_pdi -user admin -pass admin  -trans import_datapobocky -listparam
    INFO  09-12 11:16:40,272 - Using "/tmp/vfs_cache" as temporary files store.
    INFO  09-12 11:16:41,152 - Pan - Start of run.
    INFO  09-12 11:16:41,250 - RepositoriesMeta - Reading repositories XML file: /home/vratidlo/.kettle/repositories.xml
    Parameter: filename=, default=brno_20101129.csv : Soubor k importovani
    

    Podle očekávání se vypsal pouze jeden, a to filename. Nyní pomocí parametru importujeme další soubor.

    ./pan.sh -rep pentaho_pdi -user admin -pass admin  -trans import_datapobocky -param:filename=brno_20101130.csv
    INFO  09-12 11:18:39,540 - Using "/tmp/vfs_cache" as temporary files store.
    INFO  09-12 11:18:40,404 - Pan - Start of run.
    INFO  09-12 11:18:40,501 - RepositoriesMeta - Reading repositories XML file: /home/vratidlo/.kettle/repositories.xml
    INFO  09-12 11:18:40,900 - import_datapobocky - Dispatching started for transformation [import_datapobocky]
    INFO  09-12 11:18:40,967 - import_datapobocky - This transformation can be replayed with replay date: 2010/12/09 11:18:40
    INFO  09-12 11:18:40,975 - Table output - Connected to database [Pentaho data] (commit=1000)
    INFO  09-12 11:18:40,979 - Text file input - Opening file: /home/vratidlo/pentaho/brno_20101130.csv
    INFO  09-12 11:18:40,984 - Text file input - Finished processing (I=35, O=0, R=0, W=34, U=1, E=0)
    INFO  09-12 11:18:41,075 - Table output - Finished processing (I=0, O=34, R=34, W=34, U=0, E=0)
    INFO  09-12 11:18:41,076 - Pan - Finished!
    INFO  09-12 11:18:41,077 - Pan - Start=2010/12/09 11:18:40.405, Stop=2010/12/09 11:18:41.076
    INFO  09-12 11:18:41,077 - Pan - Processing ended after 0 seconds.
    INFO  09-12 11:18:41,082 - import_datapobocky -  
    INFO  09-12 11:18:41,082 - import_datapobocky - Step Text file input.0 ended successfully, processed 34 lines. ( - lines/s)
    INFO  09-12 11:18:41,083 - import_datapobocky - Step Table output.0 ended successfully, processed 34 lines. ( - lines/s)
    

    Naše transformace importovala 34 řádků ze souboru brno_20101130.csv


    Takto nakonfigurovaný skript pan.sh můžeme vložit do crontabu, a tím velmi jednoduše vytvořit plán automatického spuštění.

    Příkaz může vypadat následovně:

    0 4 1 12 *  /home/vratidlo/pentaho/data-integration/pan.sh -rep pentaho_pdi -user admin -pass admin  -trans import_datapobocky -param:filename=brno_20101130.csv
    

    Určitě si dokážete představit, že lze pomocí bash sestavit i vkládaní parametru, tak aby se nám měnil v čase.

    V dalších dílech si ještě ukážeme, jak lze Kettle ovládat z jiných aplikací Pentaho.


    Ukázali jsme si jak lze poměrně jednoduše vytvořit základní prvek ETL, transformaci. K plnohodnotnému ETL to má však ještě daleko. Takovouto jednoduchou transformaci je vhodné spouštět/opakovaně spouštět, plnit parametry a kontrolovat z nějakého nadřazeného objektu. Tím je úloha – job. O té si ale povíme příště.

    Na shledanou s Pentaho


    Autor je pracovníkem společnosti OptiSolutions s.r.o.

    Společnost OptiSolutions s.r.o. se zabývá poskytováním řešení v oblasti CRM a Business Intelligence založených na Open Source technologiích SugarCRM a Pentaho.

           

    Hodnocení: 100 %

            špatnédobré        

    Nástroje: Tisk bez diskuse

    Tiskni Sdílej: Linkuj Jaggni to Vybrali.sme.sk Google Del.icio.us Facebook

    Komentáře

    Vložit další komentář

    21.12.2010 01:49 Tomáš Srnka | skóre: 7 | Bratislava/Praha
    Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
    /mnt/abclinuxu/data/abclinuxu_data/abclinuxu/images/clanky/benes/pdi_repository_connection_new.png (Permission denied)
    21.12.2010 01:50 Tomáš Srnka | skóre: 7 | Bratislava/Praha
    Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
    pozeram, ze ta chyba je asi na vsetkych obrazkoch
    Luboš Doležel (Doli) avatar 21.12.2010 03:46 Luboš Doležel (Doli) | skóre: 98 | blog: Doliho blog | Kladensko
    Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
    Proč ty KIO-based aplikace nikdy nedokážou správně udělat to, co po nich chci? Opakovaně jsem zkusil přes SFTP hromadně změnit oprávnění a nic. Někdy to ale funguje. Tak jsem to udělal v konzoli.

    Díky za upozornění.
    21.12.2010 08:41 Aleš Kapica | skóre: 51 | blog: kenyho_stesky | Ostrava
    Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
    ..aneb jak na jednoduché věci použít něco složitého jak žebř.
    23.12.2010 18:04 andy
    Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
    děkuji za výborné přiblížení, zdá se, že OSS BI řešení začíná být opravdu nasaditelné v komerční sféře!
    27.12.2010 08:09 vratidlo007 | skóre: 21
    Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
    Penthao je moc dobry SW, na kterem se da postavit vyborne reseni. A co je krasne, tak to je za zlomek ceny ciste komercni konkurence.
    10.2.2011 10:28 pase
    Rozbalit Rozbalit vše Re: Open source business intelligence – Pentaho: ETL
    Prosím o info o cenách pro komerční využití, cca 5 - 20 users, případně training, zatím jsem nenašel.

    Založit nové vláknoNahoru

    ISSN 1214-1267   www.czech-server.cz
    © 1999-2015 Nitemedia s. r. o. Všechna práva vyhrazena.