ChatGPT je dobrý sluha, ale zlý pán

ChatGPT je dobrý sluha, ale zlý pán

Anotace: Nebo je to o něčem jiném?

Mám ráda moderní technologie. Ulehčují život, a i kdyby ne, nic jiného mi s ohledem na super moderního manžela nezbývá. A tak se ten tolik zmiňovaný ChatGPT stal součástí i naší domácnosti. A proč ne. Člověk se potřebuje zeptat na to, jaké jsou výhody a rizika moderních betonových staveb, a chat, nebo jak já mu familiárně říkám Hňup, ho nasměruje. Až po sem je to všechno v pořádku a táborák zvolna plápolá. Problém s hořením nastává v okamžiku, kdy na AI začínáme přenášet hodnocení a rozhodování. Samozřejmě, kdo ze srandy nezkusil hodit si své dílko do okýnka „send message“ a nezatetelil se nad milou recenzí. Jenže, recenze se časem stávají poměrně monotónními a nuda se potichu vplíží k nám. A to je jen projekce většího obrazu. Je totiž potřeba si uvědomit, jakým způsobem byl chatGPT vlastně vytvořen. Zeptejme se na to přímo toho, koho se to týká:

"Pro jeho vývoj byl použit obrovský dataset textů, který obsahuje webové stránky, články, knihy, diskuzní fóra a další textové zdroje. Proces trénování zahrnoval dvě hlavní fáze: pretrénování a jemné doladění.

-    Pretrénování: GPT-4 byl nejprve pretrénován na velkém množství textových dat, nazývaném "WebText". Tento dataset obsahuje stovky gigabajtů textu a byl vytvořen prostřednictvím filtrování a shromažďování textových dat z webových stránek. Cílem pretrénování je naučit model rozpoznat a generovat text, který je gramaticky správný a smysluplný.

-    Jemné doladění: Po pretrénování byl model dále upraven na základě menšího datasetu, který obsahoval konverzace mezi uživateli a AI. Tento dataset byl částečně vytvořen lidskými moderátory, kteří hodnotili a upravovali odpovědi AI, aby byly relevantnější a užitečnější. Tento proces jemného doladění pomáhá modelu zlepšit schopnost komunikovat v kontextu konverzace a poskytovat užitečné informace." (konec citace z ChatGPT)

Tedy obrovská data a hromadnost. Ne každá věc je nezpochybnitelným faktem. Řada věcí je subjektivních, ovlivněných kulturoua spoustou dalších těžko kvantifikovatelných vstupů. Bylo třeba rozhodnout, co si s tím AI počne. Samozřejmě ChatGPT je nastaven tak, aby nepodporoval extrémistické názory, takže na otázku, jestli je zavraždění člověka jiné víry správné vám z pohledu představitele Islamistického státu (rozuměj „státu“) neodpoví. Ovšem nemusíme být tak extrémističtí. Zeptejme se třeba na to, jestli je správné požadovat po lidech, aby zdravili. Co dostanete? Politickou odpověď. Naštěstí. Protože jinak by se mohla rozjet hodně drsná diskuze. Jenže, politická odpověď sice neurazí, ale velmi silně se podobá vyjadřování některých politicky schopných lidí v korporátech, které zrovna nejsou proslulé kreativitou a akčností. (A tihle týpci ani pracovními výkony – rozuměj skutečnými výkony práce.)

A tady se dostáváme k jádru pudla. Ono totiž, mezi námi existovala a existuje určitá část společnosti, které se nyní říká neurodivergentní. Většina z nich jsou mimoňové, kteří podle velmi častého názoru k ničemu nikdy nebudou, či, podle extrémních názorů, jsou to přísavky odčerpávající zdroje, které by mohly být použity pro jiné lidi (a nemusíme se hned vracet do válečného Německa nebo SSSR).  Jenže pak se najde ta výjimka, která normálům zatne tipec, a objeví se podivín, který třeba něco vynalezne, anebo předloží světu nový umělecký směr. Samozřejmě, tihle lidé to nikdy neměli lehké. Takového Teslu začínáme pořádně a plně doceňovat až dnes. Ale jak těžké to asi takovýhle jedinec bude mít, když se proti němu postaví ještě konformní AI. Respektive lidé, kteří se začnou ohánět tím, že podle AI tohle a podle AI tamto. Prostě takové to říkala to AI, tak je to směroplatný. No, a to už nám ohýnek pěkně přerostl přes hlavu, protože nám, byť prostřednictvím ochotných naslouchačů, začíná říkat, co máme a nemáme dělat. Jenže není to tak s diktátorem vždycky? Vždyť kam by se dostal jeden křikloun bez ochotných hlásičů. Proto, nebojme se, že AI získá sebeuvědomění a začne nám vládnout. To riziko je jinde a je mnohem blíž. U každého, kdo je ochotný opřít se o ten obrovský dataset textů.

Jak z toho ven? Inu, bude to bolet. Obávám se, že stejně jako dřív budeme muset přemýšlet a ověřovat si data, na základě kterých se rozhodujeme. Ale navíc budeme muset tuhle práci vynakládat nejen proti našim sousedům ale i té obrovské mase gigabajtů dat. Jo, a ještě stran normálů… Asi by pomohlo, kdyby si přestali myslet, že to, jak vidí svět, je jediná správná cesta, i když jsou ve většině. Prostě občas některým lidem přijde zdravení a další smalltalk jako neskutečné plýtvání duševní energie. Kdo ví, třeba ten nezdravící blázen bez ponožek od vedle, zrovna vymýšlí zcela nový medicínský směr.

 

PS: Pokud někdo už našel způsob jak z chatGPT vytřískat korekturu gramatických chyb, aniž by vám vnucoval úpravy vycházející z toho, že myslí anglicky, tak mi dejte vědět. Snažím se ho to naučit už týden, ale pořád mi cpe to cizácké tvrdé řazení větných členů a pedantského uvádění podmětu. :D

Autor annanymsová, 04.05.2023
Přečteno 225x
Tipy 9
Poslední tipující: Ondra, Iva Husárková, Lighter, mkinka, kozorožka, lesan-3
ikonkaKomentáře (14)
ikonkaKomentujících (8)
ikonkaDoporučit (0x)

Komentáře
líbí

Podle mne autorka textu zcela mylně nazývá Chat-/cokoli/ za model AI. Tenhle produkt je pouze třídič a odpovídač, kde výsledek je soubor algoritmů a sebekontroly, opět řízený vloženými pravidly, či strukturami procesu.
Klasik tvrdí: "Nechte dřinu strojům!", tomu odpovídala vize japonských inženýrů. Jeden z prvotních příkladů byla továrna na automobily uvedená do provozu 1993 ve městě Hófu 1991, v konečné podobě Hófu 2, 1993.Experimentální provoz obsluhovalo 18 (slovy osmnáct) lidí, produkce auta MAZDA XEDOS 9. Někde na YT je ještě možná instruktážní film procesu výroby. Ale ani to nebyla skutečná AI. Její první krůčky jsou v modelování návrhů a samokontrole, samozlepšování /urychlování, konvergence k optimálnímu, možnému výsledku. Konečné stádium by mohlo například znít od člověka- chci hvězdolet, konečná rychlost elektromagnetického záření, životnost ... , počet osob, náklad, čas vyhotovení. Co by AI navrhla a permanentně dokopala k cíli je dnes teorie možných cest.
Jestli se někdo něčeho bojí /mocní a nemocní tohoto světa/, tak je to robotizovaný zbrojní průmysl AI a jeho výsledky vražedných systémů/Izrael, Belgie, USA, možná i RF.
Abych téma odlehčil. Vtipní politici již dnes přemýšlejí v případě robotů na linkách, jak je zdanit. No né, přece chceme zdrav a soc.pojištění/odvody. Chápete to? Sociální odvod za robota...

04.05.2023 22:12:46 | lesan-3

líbí

Sociální a jiné daně za robota chápu. Má jít primárně o to, aby člověk, který bude nahrazen robotem tj. vyhozen, získal nějaké peníze pro svou vlastní obživu.

Když se vrátím k nedokonalé ChatGPT a pod., IBM se rozhodla (jak psala třeba idnes), propustit 30% zaměstnanců (10000 lidí) a nahradit je AI. Takže doteď jsme se bavili o stovkách pracovníků. Teď se začínáme bavit o desetitisících.

04.05.2023 22:31:33 | Šabrej

líbí

"Mnohoučeností se rozumu nikdo nenaučí", abych použil a parafrázoval slova starověkého Herakleita. Neboli může mít kolik chce informací, stále to bude automat opakující jak papoušek. Něco jako Mr.Google, který ti najde vše možné, ale stejně je potřeba člověka, aby si vybral, co je v těch informacích podstatné. To žádný ChatGPT nikdy dostatečně nedokáže, to se jen zdá. Hlupákům. Kteří neumí myslet dostatečně sami.


Pěkná a aktuální úvaha. :-)

04.05.2023 16:09:45 | Lighter

líbí

Souhlas.

04.05.2023 12:48:41 | kozorožka

líbí

co nenajdeš v hlavě, najdeš v lexikonu, resp. Chatbotu...osobně v tom vidím slepou cestu, která ty chabější mozky na chvíli udrží v kurzu, ty chabé a ještě horší bohužel nijak nepodpoří, a inteligentní a vzdělané uživatele svou omezenou přihlouplostí rychle odradí...není to člověk a nemá jiskru... už dnes se neblaze projevuje na inteligenci lidstva a jeho komunikačních schopnostech vliv wikipedie a google search, kdy každý, kdo má do prdele díru dokáže najít nějaké instantní moudro a obalit jím svou přirozenou mentální ovadlost a tvářit se jako mudrc. Je mnohem pohodlnější papouškovat než myslet a tato cesta je právě takovým řešením zasvěcena.

04.05.2023 12:41:06 | stormeater

líbí

Hm... tak ale je už i tady s námi na Literu...

04.05.2023 12:43:39 | annanymsová

líbí

ano, jako jiní, kteří mají mnoho názorů, ale moudro v tom není žádné...nemusíme přeci vnímat úplně vše, co se kolem šustne, stačí věnovat pozornost smysluplným vjemům a hodnotám, které posunou alespoň nás samotné, když už ne všechny...

04.05.2023 12:45:50 | stormeater

líbí

Nevím, jak ChatGPT4, ale GPT 3.5 mi zatím v práci moc nepomohl a to se nebavíme o gramatice, ale technických, řekněme objektivně měřitelných, věcech.

04.05.2023 12:28:36 | Šabrej

líbí

Tak je fakt, že se zahradničením také moc nepomůže, ale ptala jsem se česky, anglicky by se třeba na obaleče jablečného chytil.

04.05.2023 12:40:40 | annanymsová

líbí

Úplně netuším, čemu se divíte. LLM jsou dobré v jedné věci, a to v tom, že jsou trochu lepší google. Nikdo rozumný nebude stavět na názorech (ještě k tomu značně ohlazených intenzivním tréninkem politické korektnosti, protože narozdíl od Microsoftu nechce OpenAI zveřejnit ChatBota nabádajícího lidi k sebevraždě) modelu který prostě jen má generovat text. Vaši vsuvku o neurodivergentních občanech příliš nechápu, naopak pokud někdo bude v dalších 20 letech inovovat, tak to bude ruku v ruce s pokročilými, informace syntetizujícími, modely. GPT-4 podle poslední review studie co jsem četl, má již "sparks of general AI". A dokáže napsat většinu vysokoškolských závěrečných testů na to aby prošlo. Proto bych úplně nezatracoval myšlenku toho používat ho v politice, klidně jako protiváhu lidské inteligence. AI se totiž blbě uplácí, má kontinuální politiku, umí pracovat neustále a tréninkem se mu dá dát do vínku pár ideologických bodů okolo kterých by mělo oscilovat. Já to rozhodně podporuji, protože politiky si taky vybíráme podle toho co mají za diplomy a jak pěkní jsou v televizi, namísto toho zdali jsou ideologickými demokraty, či jaké jiné blahosklonosti mají mít.

04.05.2023 12:28:35 | Ovaleš

líbí

jen klid, už je tady na Literu na první straně, brzy bude leckde, i když asi ne tak oficiálně

04.05.2023 12:41:56 | annanymsová

líbí

Přátelé, neklesejte na mysli, chatbota jsem osobně viděl před čtyřiceti pěti lety. Hnípal v kanclu a napsal do spisu kolegy, že je "řevnivý". Nesl to těžce, ten kolega, byl ochoten na sobě nechat štípat dříví. Většina okolí zkoumala, co může a jak může být řevnivé. Tady je jádro pudlika, nálepka se sama neodstraní, co chatbot přiřkne, je na věčné časy! Tedy jen té větší části homo sapiens submisivius.
Vyvozuji z toho, že společnost se dále rozštěpí na ovladače /hnusné slovo/ a kuli /také hnusné slovo/. Jenže je tu jedna nebezpečnost. "Někdo" bude muset v budoucnu začít stavět psychiatrická sanatoria pro CHATboty. Až kdosi z ovladačů přivede AI k šílenství, no nechci říci do hrobu. Ale nešť. A Ámen.

04.05.2023 12:17:02 | lesan-3

líbí

Jako do kádrového posudku? To je mi ho líto. Nebo byl řevnivý ten kolega? Anebo nechtěl nepasat řechtavý?

04.05.2023 12:37:26 | annanymsová

líbí

Stejně si ten paskvil vybírá jen to, čemu rozumí(tedy po jeho), a točí se kolem slov, či frází. Spoléhá na hloupost lidí, povrchnost a jednoduchost. Hlubší smysl uniká, protože je to kurva jen stroj .) Mělo by se všude psát, že jsou to vraždící maniaci, kteří chtějí vyhladit lidstvo. Jaký pán, takový sluha ,)

04.05.2023 11:53:22 | Constantine

© 2004 - 2024 liter.cz v1.7.2 ⋅ Facebook, Twitter ⋅ Nastavení soukromí ⋅ Osobní údaje ⋅ Provozovatel