Bylo vydáno OpenBSD 7.7. Opět bez písničky.
V Tiraně proběhl letošní Linux App Summit (LAS) (Mastodon). Zatím nesestříhané videozáznamy přednášek jsou k dispozici na YouTube.
Na čem aktuálně pracují vývojáři GNOME a KDE Plasma? Pravidelný přehled novinek v Týden v GNOME a Týden v KDE Plasma.
Berkeley Humanoid Lite (Onshape, GitHub) je open source humanoidní robot. V amerických cenách jej lze sestavit do 5000 dolarů.
Jakub Jelínek oznámil vydání verze 15.1 (15.1.0) kolekce kompilátorů pro různé programovací jazyky GCC (GNU Compiler Collection). Jedná se o první stabilní verzi řady 15. Přehled změn, nových vlastností a oprav a aktualizovaná dokumentace na stránkách projektu. Některé zdrojové kódy, které bylo možné přeložit s předchozími verzemi GCC, bude nutné upravit.
Byly vyhlášeny výsledky letošní volby vedoucího projektu Debian (DPL, Wikipedie). Staronovým vedoucím zůstává Andreas Tille.
Jason Citron končí jako CEO Discordu. Od pondělí 28. dubna nastupuje nový CEO Humam Sakhnini, bývalý CSO Activision Blizzard.
Článek na Libre Arts představuje baskytarový multiefekt Anagram od společnosti Darkglass Electronics. S Linuxem uvnitř (licence, GitHub).
Městský soud v Praze vyhlásil rozsudek, který vyhověl žalobě novináře Jana Cibulky, který s podporou spolku IuRe (Iuridicum Remedium) požadoval omluvu od státu za to, že česká legislativa nařizuje operátorům uchovávat metadata o elektronické komunikaci. To je přitom v rozporu s právem. Stát se musí novináři omluvit a zaplatit náklady řízení. Především je ale součástí přelomové rozhodnutí o nelegálnosti shromažďování dat a o
… více »Americké technologické firmy Apple a Meta Platforms porušily pravidla na ochranu unijního trhu, uvedla včera Evropská komise (EK). Firmám proto vyměřila pokutu – Applu 500 milionů eur (12,5 miliardy Kč) a Metě 200 milionů eur (pět miliard Kč). Komise to oznámila v tiskové zprávě. Jde o první pokuty, které souvisejí s unijním nařízením o digitálních trzích (DMA). „Evropská komise zjistila, že Apple porušil povinnost vyplývající z nařízení
… více »Společnost xAI založena Elonem Muskem na síti 𝕏 představila Grok-3, tj. novou verzi svého AI LLM modelu Grok.
Tiskni
Sdílej:
Umělá inteligence (AI) může být hloupým pomocníkem a ještě blbějším pánem. Své o tom ví australský advokát, který si chtěl ulehčit práci a k sepsání soudních dokumentů použil chatbota ChatGPT od OpenAI. Bohužel pro něj umělá inteligence vygenerovala odkazy na neexistující případy. Muž si to ale nezkontroloval, umělé inteligenci věřil a soudní dokumenty tak odevzdal.https://www.novinky.cz/clanek/internet-a-pc-ai-pravnik-za-sebe-nechal-pracovat-ai-nedopadlo-to-dobre-40507399 Aneb chybovat je lidské, ale něco pořádně zvorat, na to je potřeba počítač
Bavíme se tu o Grog3, který není ani ještě public, a ty sem začneš linkovat nesmysly s ChatGPT s nějakým senza článkem, který nevím, koho má reálně ohromit. Ale to už mně nepřekvapuje, Radovan je negační bot, na všechno musí mít opačnou odpověď a linkovat sebedivnější zdroje :D.Na druhou stranu neni asi od veci upozornit trebas nejake kolemjdouci dezolaty, co by si chteli trebas psat bakalarku za pomoci AI, a to aby si davali bacha, nebo snad ne?
Grog dává odkazy na zdroje, tak je tím myšleno linky na konkrétní stránky apod., odkud čerpá. To, co postnul Radovan je o tom, že si ChatGPT vymyslel nějaký text. Dvě úplně odlišné věci...Čéče, to bych ani neřek'. Radovan uvedl příklad (včetně zdroje!), kde jiný model také uvedl zdroje odkud čerpal, nicméně ty zdroje fakticky neexistovaly. To si myslím, že je dost podstatná a relevantní poznámka. Jasně, správně bys namítl, že si máš ten zdroj ověřit, nicméně ono existují i případy (např. ve vědeckých pracích), kde se uvádí odkazy na zdroje nějakých tvrzení, ty odkazované zdroje dokonce existují, nicméně se tomu původnímu tématu třeba vůbec nevěnují. Pak ti nezbývá, než si ten zdroj přečíst a posoudit jestli je v souladu s tím, co ten model tvrdí. Ale pak už defakto nepotřebuješ ten výcuc, žejo. A kolik lidí to skutečně udělá a kolik bude žít ve falešným positu jistoty, že je všechno ok, páč tam jsou přece ty zdroje, žejo...
Nebo aktuální studie BBC k sumarizaci článků (tzn. zdroj známý): Groundbreaking BBC research shows issues with over half the answers from Artificial Intelligence (AI) assistants
Určitě uvěřím, že genAI vyvinutá s naciElmovým vedením tyhle problémy mít nebude. /s
Vždyť je to člověk, který na xitter nechal přidat if
, aby všichni viděli jeho výblitky.
Mluví se o odkazech na neexistující případy. Nejedná se tedy o url, která nikam nesměřuje.No já ti nevím, mě to připadá prakticky identický. Na konkrétní případ odkazuješ taky pomocí nějakého identifikátoru (u nás asi spisová značka, nevím co používají v Austrálii). Ten identifikátor opíšeš to takovýho obdélníčku v kompjůtru, zmáčkneš EOL, načež zjistíš, jestli takovej případ existuje nebo ne.
Zeptas se ai jestli jsou ufouni mezi nama a dostanes odpoved ze ano protoze to cetla ... a zaroven i v seriozni vedecke rozprave o mimozemstanechMůžete dát odkaz na jedinou seriózní vědeckou rozpravu/publikaci, která tvrdí že mimozemšťané jsou mezi námi? Aby mohl vědec něco tvrdit musí to mít potvzené ověřitelnými důkazy či opakovatelnými pokusy.
V opačném případě jde pouze o teorie/hypotézy, které rozhodně nedeklarují "že jsou mezi náma".
Pokud AI nezvládá porozumět sémantice textu nemá smysl z ní čerpat nějaké informace.
To úplně neodpovídá na otázku, jak AI pozná fakta od fikce. Přitom odpověď je nasnadě – lidé příslušně oštítkují trénovací data. Což se v různé míře skutečně děje.
Pak je ještě jiná věc, že takhle věda opravdu nefunguje. Nebo jako lidově ano, ale jen lidově. Ono „potvrzování“ či „dokazování“ je dost ošemetné, „opakovatelnost“ při krizi právě reprodukovatelnosti nic moc, „teorie“ a „hypotézy“ mají konkrétní technický význam (bez lomítka).
To úplně neodpovídá na otázku, jak AI pozná fakta od fikce. Přitom odpověď je nasnadě – lidé příslušně oštítkují trénovací data.
Nevím, co je skutečným cílem tohoto hype, ale objektivní poznání určitě ne! Celé to povede jen k vygenerování dalších megatun nedůvěryhodných nesmyslů. Už dnes je téměř nad lidské síly se těmi hovny, co vznikaly již v éře předinternetové, prokopat k původní informaci, které jsou považovány za důvěryhodné zdroje jen proto, že vyšly tiskem. A vyvracet ty nesmysly je ještě těžší, protože to vyžaduje pracné a zdlouhavé dohledávání důkazů.
Jako názorný příklad lze uvést MyHeritage a jiné genealogické weby. Za skutečně ověřený považuji jen záznam, ke kterému se mi podaří dohledat správné matriční záznamy. A najít takový záznam, to znamená projít stovky naskenovaných foliantů, záznam po záznamu. A podchytit, všechny co by mohly přijít do úvahy.
V matrikách jsou chyby. A kdo to nedělá jako já, ty chyby nikdy neodhalí. Odhalit je není snadné. No a pokud od vás někdo takovou chybu přebere, je to pak jako když někomu kopnete do domku z karet, podaří-li se ji odhalit.
Díky takové chybě se můžete dočíst, že údajně nejstarší ženou, která porodila dítě, měla být Ellen Ellisová z Walesu, která měla v roce 1776 porodit své třinácté dítě ve věku dvaaosmdesáti let. Podle mne ja takové čtení pouze důsledkem nedůsledně psané, nebo čtené matriky.
A na tomhle chce někdo trénovat AI?
objektivní poznáníCo to je?
Objektivita (z lat. obiectum, předmět) je kvalita či rys takového poznávání nebo popisu, které se snaží co nejvíce přiblížit svému předmětu, a tedy co nejvíce omezit vliv poznávající osoby. Je žádoucí právě proto, že nezávisí na osobách, a je tedy platný, použitelný a přijatelný pro každého.
Obligátní: [zdroj?]
Psali to na Wikipedii, to vidím taky. Je to tam mizerně ozdrojované a napsané ještě hůř.
Laskavý čtenář si všimne jak odlišný jazyk (a tím nemyslím angličtinu) používá příslušné heslo v IEP. O Platu nemluvě.
...jelikož necenzuruje...Takže když se zeptám na náměstí Nebeského klidu a málem přejetí tankem člověka, tak se dovím pravdu? A co Větnam a masakr USA vojskem, taky cajk?