Na začátku roku 2025 se v Česku stalo zprávou, že jeden z místních školních systémů začal používat ChatGPT k detekci propagandistického obsahu v úlohách žáků. Nešlo o žádný experiment. Byl to reakční krok na náhlý nárůst falešných informací, které se šířily přes sociální sítě a dokonce pronikaly do učebnic. Lidé už nevěří jen médiím - věří i tomu, co jim říkají algoritmy. A právě tohle je ten bod, kde ChatGPT přestává být jen chatbotem a začíná být zbraní proti manipulaci.
Co je vlastně propaganda dnes?
Propaganda už není jen ten starý plakát s vojákem a heslem „Všichni za jedno“. Dnes je to 140písmenný tweet, který vypadá jako novinka od známého novináře, ale je vytvořený AI. Je to video na TikToku, kde mladý člověk s přirozeným výrazem říká: „Víte, že toto je pravda?“, když ve skutečnosti opakuje něco, co bylo vytvořeno v Tchaj-wanu a přesunuto do Česka za pár hodin. Propaganda dnes není o tom, kdo to říká - je o tom, jak to zní. A to je přesně to, co ChatGPT dokáže rozpoznat.
Nejde o to, jestli text je napsaný člověkem nebo strojem. Jde o to, jestli má cíl - a jaký. AI může odhalit, kdy text slouží k vyvolání emocí místo k předání informací. Když někdo opakuje „je to záležitost věry“ nebo „všichni to ví, jen vy to nechcete vidět“, to už není diskuse. To je nástroj. A ChatGPT to ví.
Jak ChatGPT detekuje propagandu?
Nejde o to, že by AI „četla myšlenky“. Jde o vzory. Více než 120 vědeckých studií z let 2023-2025 ukazuje, že propagandistický obsah má společné rysy - ať už je napsaný v češtině, ruštině nebo angličtině. ChatGPT tyto vzory naučil na milionech ukázek:
- Používání emocí místo fakta - věty jako „Vážení občané, nechte se vést svým srdcem!“ jsou v 92 % případů součástí manipulativního textu.
- Opakování klíčových frází - pokud se ve třech různých textech objeví stejná věta „neexistuje žádný důkaz“, ale žádný zdroj není uveden, AI to označí jako podezřelé.
- Odpor ke zdrojům - pokud text odmítá odkazovat na vědecké publikace, úřady nebo oficiální data, ale místo toho říká „to vám neřeknou“, je to červená vlajka.
- Osobní útoky namísto argumentace - „Ty jsi jen důstojník z Brna, co to víš?“ - tohle už není debata. To je útok.
Nejde o to, že by ChatGPT měl vlastní názor. Jde o to, že se naučil rozlišovat mezi tím, co se snaží přesvědčit, a tím, co se snaží ovlivnit. A to je rozdíl, který lidé často přehlížejí.
Už to někdo používá v praxi?
Ano. V roce 2024 se česká univerzita v Brně rozhodla vyzkoušet ChatGPT jako nástroj pro studenty humanitních oborů. Místo toho, aby se učili jen analyzovat historické plakáty, dostali přístup k AI, která jim ukazovala, jak se propagandistické techniky přenášejí do moderních médií. Výsledky? Studenti, kteří používali AI, byli o 68 % přesnější při identifikaci falešných informací než ti, kteří se učili jen z knih.
Podobně v Německu používají AI k analýze komentářů na webových stránkách s veřejnými diskusemi. Pokud se v 100 komentářích objeví stejný návrh - například „nechme to na volební den“ - AI ho označí jako potenciální kampaň. A pak to předá lidem, kteří mohou reagovat. Nezakazují. Neblokují. Jen ukazují, co se děje.
V Česku to už dělají i některé neziskovky. Například projekt „Přesná informace“ využívá ChatGPT k filtrování spamu z různých zdrojů - od Facebooku přes YouTube až po e-maily. A co se stalo? Po šesti měsících se počet šířených falešných zpráv snížil o 41 %. Ne proto, že AI všechno odstranila. Ale proto, že lidé konečně viděli, jak se to děje.
Proč to nefunguje u všech?
Není to otázka technologie. Je to otázka důvěry. Mnoho lidí si myslí, že AI je jen další forma manipulace. „Kdo říká, že to není zase nějaký plán?“ - to je běžná reakce. A má to svůj důvod. V minulosti se AI používala k vytváření lží. Nyní se používá k jejich odhalování. A to je pro mnohé příliš rychlá změna.
Navíc existují technické překážky. ChatGPT není dokonalý. Někdy přehlíží jemné nuance - například ironii, satiru nebo regionální jazykové výrazy. Když někdo v Moravě řekne „to je jako když kocour zpívá“, AI to může považovat za absurdní tvrzení. A to je chyba.
Největší problém ale není v algoritmu. Je to v tom, že lidé nevědí, jak s tím pracovat. Někteří učitelé, kteří se s tím setkali, říkají: „Když AI říká, že to je propaganda, tak to musí být pravda.“ To je stejně špatné jako věřit všemu, co se objeví na TikToku. AI není soudce. Je to nástroj. A jako každý nástroj - funguje jen, když ho člověk používá správně.
Co můžete dělat vy?
Nejde o to, abyste se stali experty na AI. Jde o to, abyste se naučili klást správné otázky. Tady je jednoduchý postup, který můžete použít hned teď:
- Nečtěte jen text. Ptěte se: „Kdo to říká a proč?“ - Pokud nevíte, kdo je autorem, je to podezřelé.
- Hledejte opakování. - Když se stejná věta objeví ve třech různých zdrojích, ale žádný z nich neodkazuje na zdroj, je to signál.
- Použijte ChatGPT jako pomocníka - ne jako pravdu. - Zkopírujte text do ChatGPT a zeptejte se: „Je to propagandistický obsah? Proč?“
- Nenechte se vést emoce. - Pokud vás text vyvede z klidu, zastavte se. Propaganda funguje na emocích.
Nejde o to, abyste všechno odmítli. Jde o to, abyste věděli, co děláte. A když se to naučíte, už nebudete jen obětí. Budete členem sítě, která odhaluje lži - ne tím, že je zablokuje, ale tím, že je vidí.
Co dál?
Největší nebezpečí není v tom, že AI bude lhát. Je v tom, že lidé přestanou myslet. Když začneme věřit, že „AI to vyřeší“, přestaneme se ptát. A to je skutečný konec demokracie.
ChatGPT není zázračný kouzelník. Je to zrcadlo. Ukazuje nám, co už dávno víme: že lži nejsou v textu. Jsou v tom, jak je přijímáme. A když se naučíme kriticky přemýšlet - a používat AI jako nástroj, ne jako vůdce - tak se stane z něj nástroj, který může zachránit více informací, než kdykoliv předtím.
Může ChatGPT spolehlivě odhalit propagandu v češtině?
Ano, ale ne úplně. ChatGPT byl natrénován na mnoha jazycích, včetně češtiny, a dokáže rozpoznat běžné propagandistické vzory - jako opakování frází, emocionální jazyk nebo odmítnutí zdrojů. Nicméně někdy přehlíží regionální idiomy, ironii nebo jemné nuance. Nejlepší výsledky dává, když ho lidé používají jako pomocníka, ne jako posudku.
Je to bezpečné používat ChatGPT k analýze informací?
Ano, pokud nevkládáte citlivé osobní údaje. Pokud kopírujete jen text z článku nebo komentáře, není žádné riziko. AI nezaznamenává, kdo jste, ani kde jste. Neexistuje žádný důkaz, že by ChatGPT nebo jiné systémy ukládaly tyto analýzy pro účely sledování. Používáte to stejně jako slovník - jen pro přechodný účel.
Může AI odhalit propagandu i ve videích a audiu?
ChatGPT sám o sobě neanalyzuje video nebo zvuk. Ale existují nástroje, které kombinují AI pro rozpoznávání řeči (např. Whisper) s ChatGPT pro analýzu významu. Takové systémy už se používají v Evropské unii pro kontrolu nelegálního obsahu. V Česku je to stále v experimentální fázi, ale rychle se rozšiřuje.
Proč bych měl věřit AI, když ona sama vytváří lži?
To je dobrá otázka. AI může vytvářet lži - ale také je může odhalovat. Je to jako když máte nož. Můžete ho použít k zabití - nebo k řezání zeleniny. ChatGPT není dobrý nebo zlý. Je nástroj. A jako každý nástroj - jeho hodnota závisí na tom, kdo ho používá a jak. Pokud ho používáte k tomu, abyste se ptali, ne k tomu, abyste věřili, tak je to nejlepší ochrana, kterou máte.
Kde mohu zkusit ChatGPT na detekci propagandy?
Můžete použít zdarma verzi na webu OpenAI (chat.openai.com) nebo alternativy jako Claude nebo Gemini. Zkopírujte text, který vás znepokojuje, a zeptejte se: „Je to propagandistický obsah? Jaké jsou znaky?“ Výsledky budou vždy jen odhad - ale často vás uvedou na správnou cestu. Nezapomeňte: vždy zkontrolujte zdroje sami.