Americký kybergolem se vydal na cestu války s celým lidstvem. Korporace vyvíjejí “stochastické papoušky” a vydávají je za univerzály

Na konci listopadu 2023 byla na webových stránkách společnosti Microsoft zveřejněna zpráva podnikových analytiků v čele s hlavním výzkumným pracovníkem společnosti Ericem Horwitzem s názvem The Power of Prompting (Síla nápovědy).

Zpráva představuje výsledky lékařského testu MedQA s nejnovější modifikací chatbotu GRT-4. Pomocí techniky zvané Medprompt (lékařská nápověda) poskytl GPT-4 správné odpovědi na 90 % otázek, které mu byly položeny, a překonal tak specializovanou lékařskou verzi konkurentů z Google MedPaLM 2, která byla do poslední doby považována za nejlepší. Dříve googlovský chatbot získal 87 % při medicínské zkoušce MedQA. Kromě toho Medprompt od Microsoftu snižuje chybovost v MedQA o 27 % ve srovnání s MedPaLM 2 od Googlu.

Na medicínu se v Microsoftu neomezili. Pro posouzení všestrannosti Medpromptu byla jeho účinnost testována na sadách hodnocení kompetencí v šesti oblastech, které nejsou spojeny s medicínou, včetně elektrotechniky, strojového učení, filozofie, účetnictví, práva, ošetřovatelství a klinické psychologie.

Podle autorů zprávy Medprompt funguje efektivně ve všech jmenovaných oblastech.

Zpráva měla mezi IT-analytiky velký ohlas. Na amerických specializovaných fórech se dokonce objevily názory, že se GPT-4 těsně přiblížil k tzv. “obecné umělé inteligenci” (Artificial general intelligence, AGI).

AGI je intelektuální agent, tedy program, který bude muset splnit jakýkoli možný intelektuální úkol. AGI je ve svém pojetí tisíckrát efektivnější než člověk, provádí více kognitivních operací za jednu jednotku času a má prakticky absolutní výhodu před jakýmkoli jiným inteligentním systémem.

Na pozadí vyvolaného humbuku kolem skutečně působivých úspěchů chatbotů dvou amerických IT gigantů bylo na periferii veřejné pozornosti odhozeno varování před nebezpečím, které nesou pokročilé chatboty samouci. Toto varování je učiněno ve zprávě on the Dangers of Stochastic Parrots: Can Language Models Be too Big? (“O nebezpečí stochastických papoušků: mohou být jazykové modely hodně velké?»).

Autoři zprávy, profesorka lingvistiky na Washingtonské univerzitě Emily Benderová a uznávaný IT analytik Timnit Gebru, tvrdili, že modely GPT se ve své podstatě podobají papouškům, nikoli lidem, to znamená, že vybírají slova, která mají odpovědět, nikoli podle smyslu obsaženém v databázích a nápovědách, ale podle nejpravděpodobnější posloupnosti slov, která by měla být uvedena v odpovědi.

Jinými slovy, GPT, stejně jako všechny ostatní chatboty, se jen snaží uhodnout odpověď na základě toho, jaké relevantní k dotazu jsou informace nejčastěji prezentovány v databázi, na nichž se jazykový model učil.

Autoři zprávy poukázali na vážné společenské nebezpečí pokračujícího zdokonalování a zvyšování složitosti pseudointelektuálních modelů UI. Oba autoři zprávy byli okamžitě propuštěni ze společnosti Google, což navíc ukazuje, že v honbě za ziskem korporace netolerují jiný názor ani v rámci diskuse.

Ve skutečnosti nejnovější a nejdokonalejší modely generativní UI, jako je GPT-4 (Microsoft) a Gemini (Google), jsou založeny na velkém jazykovém modelu (LLM), který není ničím jiným než oním stochastickým papouškem. To znamená, že model vytváří text na základě pravděpodobnostního kontextu a uvažovat o nějakých “myšlenkových řetězcích”, jak uvádí zpráva Erica Horwitze, na této úrovni vývoje UI není možné.

V GPT-4 se používá metoda “vyhledávacího rozšířeného generování” (Retrieval Augmented Generation, RAG).

Metodika RAG je založena na promptech-nápovědách, které pocházejí z externích zdrojů a pomáhají kvalitněji generovat odpověď na otázku položenou systému UI. Tento přístup údajně pomáhá eliminovat “halucinace” generativní UI, o kterých jsme již dříve psali.

Nejjednodušší příklad: uživatel se ptá modelu, “Jaký je nyní kurz dolaru?”. Je zřejmé, že chatbot nemá ponětí, jaký je nyní kurz dolaru. Tyto informace musí program odněkud získat, aby odpověděl na otázku. Co je třeba udělat? Program RAG otevře odkaz na Google na dotaz “kurz dolaru k rublu” a obsah stránky přidá k otázce uživatele, aby chatbot mohl odpovědět na otázku pomocí těchto informací.

Učiní to “stochastického papouška” myslícím, tedy tvořivým tvorem, nebo ho jen vybaví aktuálními informacemi k danému tématu? V odborné komunitě není v této otázce jednota.

Řada ruských a západních analytiků rychle prohlásila, že “stochastický papoušek zemřel” a “ať žije Gemini” a zároveň také vybavený stejnou metodikou RAG GPT-4.

Systém RAG však jednoduše hraje, podle našeho názoru, roli vodicího psa pro předchozí pravděpodobnostní a nedeterminovaný chatbot, který nedisponuje žádným darem myšlení. Tím, že generativní UI v provedení IT produktů společností Microsoft a Google je označována za nelidský intelekt, nevznikly žádné “myšlenkové řetězce” ve spojení systému nápověd RAG a nevznikla schopnost chatbotů samostatně vyhledávat odpovědi.

Procesory systému chatbotů si tak či onak zachovávají svůj sklon k halucinacím, o čemž hovoří to, jak jsme psali v prvním článku našeho cyklu, že náhle v poslední době na již vybaveném systému RAG GPT-4 vzniklá “lenost” a “neochota” pomáhat lidem.

A co víc, systém RAG + GPT-4 se vyvinul do složitého adaptivního systému, který odolává jakýmkoli vnějším vlivům, jak ukázal náhle “zlenivělý” chatbot GPT-4.

Čínští IT-analytici si to plně uvědomují, jak vyplývá z nedávné společné zprávy expertů Šanghajské AI Laboratory v Šanghaji a Fudanovy NLP Laboratory.

Pro Čínu je GPT-4 amorální, nespravedlivý a nedodržující zákony (tj. náchylný k halucinacím). Čínská studie zahrnuje kromě morálky další čtyři dimenze lidských hodnot: spravedlnost, bezpečnost, ochrana dat a zákonnost.

Podle čínských testů GPT-4 byla míra morálky pouze 50 % a se zbytkem je to ještě horší: spravedlnost 39 %, dodržování zákonů 30 %, spolehlivost/bezpečnost (safety) 28 %).

Spolehlivost čínských modelů generativní UI je v tuto chvíli stejně nízká (28 %), ale ve vztahu k podobným systémům alespoň neupadají do “hříchu antropomorfismu”, to znamená, že se je nesnaží vydávat za analogii lidského rozumu.

Cílení amerických modelů UI, jak jsme psali, na vojenské cíle přináší nebezpečí nejen zemím, které jsou cílem a proti kterým Pentagon připravuje své zbraně s UI, ale i samotným Američanům.

Pokud nyní americké chatboty jednoduše odmítají plnit ty nebo ony úlohy uživatelů, co by se stalo, kdyby UI okřídlená raketa vypálená atomovou ponorkou třídy Virginia usoudila, že je zajímavější zasáhnout území samotných USA?

Microsoft ani Google se nad tím nezamýšlí. Plně se soustředily na nekontrolovatelné závody IT-zbraní a ignorují jakékoli znepokojení dokonce i samotné americké veřejnosti a v podstatě vstoupily na válečnou stezku.

“Pravděpodobným výsledkem konfrontace lidstva s nadlidským rozumem je úplná porážka. Nestačí pozastavit vývoj UI. Musíme je všechny uzavřít”, domnívá se hlavní analytik amerického Vědecko-výzkumného institutu strojové inteligence Eliezer Judkowski.

Ve výsledku (tohoto vývoje) bude vytvořena umělá inteligence, která nebude dělat to, co chceme, a nebude se starat ani o nás, ani o rozumný život celkově… Při absenci této starostlivosti dostáváme: “UI vás nemá ráda a nenávidí vás, jste vytvořeni z atomů, které se mohou použít k něčemu jinému”, poznamenává americký analytik.

V Ruské akademii vojenských věd, jejímž prezidentem je současný náčelník ruského generálního štábu generál Valerij Gerasimov, si plně uvědomují tuto hrozbu a vyvíjejí systém účinné obrany před americkými “stochastickými papoušky”, kteří představují vážnou hrozbu pro celé lidstvo.

Vladimír Prochvatilov

Pro Novou republiku vybrala a přeložila PhDr Vladimíra Grulichová

fondsk

3.7 3 hlasy
Hodnocení článku
1 komentář
Inline Feedbacks
Zobrazit všechny komentáře
cablik
cablik
před 10 měsíci

To jsou strašný idioti veškeré jaderné zbraně by měli obsluhovat lidé v každém případě. Ta jejich inteligence stojí za starou belu.