Opravdu poznáte, kdy s vámi někdo manipuluje? Dnešní propaganda je mazanější než kdy dřív, schovává se v běžných zprávách, na sociálních sítích, dokonce i v diskuzích pod fotkami koťat. Právě proto začíná čím dál víc lidí sázet na nástroje jako ChatGPT.
ChatGPT není jen chytrý chatbot, kterému můžete napsat vtipný dotaz. Sami lidé zjišťují, že AI se dají skvěle využít na kontrolu, jestli v článku nejsou skryté manipulace nebo jasná lež. Prostě zkopírujete podezřelý odstavec, vložíte do chatu a během vteřiny zjistíte, na jaké triky text cílí. Je to užitečné hlavně ve chvíli, kdy příspěvek vypadá věrohodně, ale něco vám na něm nesedí.
Propaganda už dávno není o jednoduchých letácích nebo hlasitých prohlášeních, které se vám snaží vnutit jednu pravdu. Teď se maskuje za obyčejný obsah, který sdílíme denně – články, videa, memy nebo komentáře na sociálních sítích. Klíčem je ovlivnit vaše emoce a názory, často nenápadnou a chytrou formou.
Když se řekne propaganda, většina lidí si vybaví staré plakáty z minulého století. Jenže dnes se pracuje s mnohem propracovanějšími metodami. Manipulace probíhá online, a to většinou tak, aby si toho běžný člověk ani nevšiml.
Podle výzkumu Oxford Internet Institute z roku 2023 ve více než polovině států světa proběhly pokusy o šíření propagandy pomocí sociálních sítí. V Česku se například nástroje propagandy používají v politických kampaních, dezinformačních skupinách či při snahách ovlivnit volby.
Ne každý zmanipulovaný obsah poznáte hned na první pohled. Na internetu se objevuje spousta falešných profilů, které vypadají normálně, ale mají jediný cíl – ovlivnit vás.
Rok | Množství odhalených propagandistických účtů na sociálních sítích v ČR |
---|---|
2022 | 1 500+ |
2023 | 2 370+ |
2024 | 3 100+ |
Propaganda se dnes šíří hlavně proto, že algoritmy sociálních sítí ji často neumějí zastavit. Může se tak dostat k tisícům lidí během pár minut. Proto je důležité se naučit ji rozpoznat a nebýt lehce ovlivnitelný.
Když nahrajete podezřelý text do ChatGPT, spustí se pořádně chytrý mechanismus. Nejde jen o vyhledávání konkrétních slov nebo jednoduché porovnání vět. ChatGPT si všímá stylu psaní, logiky argumentů, a dokonce i toho, jestli se text snaží vyvolat silné emoce nebo strach. Často se zaměří na to, jestli autor používá nepodložená tvrzení, domněnky místo faktů nebo výrazy, které mají něco zmanipulovat.
Proč to funguje? Vývojáři ChatGPT trénovali AI na milionech různých článků, fake news příspěvcích a také na odborné žurnalistice. Díky tomu se naučila poznávat, do jakých pastí se při čtení můžeme chytit. Jednoduchý příklad: Pokud někdo v textu používá výraz "všichni vědí," ChatGPT upozorní, že jde vlastně o pokus přesvědčit vás bez důkazu.
Hlavní síla ChatGPT je v tom, že zvládne analyzovat obrovské množství textu během vteřin. Vyhodnocuje souvislosti, kontroluje argumenty a porovnává informace s těmi, které získala ze spolehlivých zdrojů.
Nástroj AI | Zvládnutých jazyků | Zpracovaných slov za sekundu |
---|---|---|
ChatGPT | více než 50 | přes 1000 |
Konkurenční AI systémy | 20-30 | okolo 300-500 |
Takové výsledky znamenají, že i složitý text s rafinovanou manipulací zvládne AI rozebrat rychleji než běžný člověk. Když zkoumáte zdroj informací, nikdy nejste odkázaní jen na svůj pocit. Máte s sebou nástroj, který se nenudí a nenechá se unavit nebo zmást.
Fake news nejsou nic nového, ale dnes se šíří tak rychle, že je těžké rozeznat, co je pravda a co dobře zamaskovaná lež. Dezinformace dokáže během pár hodin ovlivnit tisíce lidí – podle studie Stanfordské univerzity z roku 2024 lidé na sociálních sítích sdílí neověřené zprávy skoro dvakrát častěji než ověřené.
Jak v tom má člověk plavat? Právě tady se hodí ChatGPT a další AI nástroje. Když narazíte na podezřelou zprávu, můžete:
Schválně doporučuju zkusit: vezměte titulek, který zní až moc senzačně, a dejte ho ChatGPT. Často dostanete rozbor, co přesně je na informaci podezřelé a kde si dát pozor.
Dezinformace často poznáte podle některých typických znaků:
Podívejte se, jak rychle se dezinformace mohou šířit v porovnání s ověřenými informacemi:
Typ zprávy | Průměrná doba šíření na 1000 sdílení |
---|---|
Ověřená zpráva | 9 hodin |
Dezinformace | 4 hodiny |
Tak slabý rozdíl ve prospěch lživých zpráv znamená, že se vyplatí použít AI dřív, než něco nasdílíte dál. V době, kdy jeden sdílený status může ovlivnit celý názor vaší rodiny nebo kolegů, je digitální rozbor zpráv tím nejlepším obranným nástrojem.
Možná si myslíte, že ChatGPT je jen geekovská hračka, ale ve skutečnosti už AI lidem pomáhá zvládat běžné situace. Už dávno to není jen o hledání odpovědí na složité otázky. Tady jde hlavně o to, jak se chránit před dezinformacemi, a to v denním provozu – od rychlého ověřování zpráv přes odhalování podvodů až po vysvětlování, jak poznat manipulativní obsah.
Možnosti využití rostou i díky tomu, že AI zvládne zpracovat obrovské množství dat najednou a to rychleji než člověk. Třeba v roce 2024 už umělá inteligence v evropském prostoru pomáhala s monitoringem volební kampaně a odhalila přes 8 tisíc falešných informací.
Kde nejčastěji využíváme AI | Typický příklad |
---|---|
Domácnost | Ověření podezřelé zprávy v e-mailu |
Práce | Analýza tiskové zprávy, kontrola argumentace |
Škola | Rychlá kontrola zdrojů při psaní seminárky |
Díky nástrojům jako ChatGPT už nemusíte být IT expert, abyste si uměli chránit informace. Všechno proběhne v pár jednoduchých krocích – a hlavně, v reálném čase.
Pokud se chcete rychle zbavit pochybností o nějaké zprávě nebo statusu na internetu, stačí pár jednoduchých kroků a nástroj jako ChatGPT vám podá jasnější obraz. Lidé celý rok 2024 sdíleli zkušenosti, jak jim AI pomáhá rozlousknout, co je skutečně pravdivá informace a co zákeřně nastrčená propaganda.
Jak na to v praxi? Tady máte nejčastější postup, který zvládne i technický začátečník:
Možná vás překvapí, že podle průzkumu Pew Research Center z března 2024 41 % lidí v EU použilo AI k ověřování faktů během volebních kampaní. Rostoucí důvěra v podobné nástroje je vidět hlavně mezi studenty a mladými pracujícími.
Rok | % uživatelů AI při ověřování informací |
---|---|
2022 | 16 % |
2023 | 23 % |
2024 | 41 % |
Jestli chcete rychle testovat více článků nebo správ, využijte možnosti dávkového zpracování – některé rozhraní ChatGPT umožňuje vložit větší množství textu najednou. Pokud si nejste jistí odpovědí, zkuste položit otázku z několika úhlů nebo přidat konkrétní příklady. ChatGPT si poradí nejen s detekcí propagandy, ale i se základní analýzou zdrojů nebo citací v textu.
TIP: Pokud chcete dostat nejpřesnější odpověď, pište otázky jasně a stručně. ChatGPT můžete požádat i o vysvětlení pojmů, které text používá – například co znamenají pojmy „fake news“ nebo "red herring".
Ačkoliv ChatGPT pomáhá chápat propagandu, není to žádný kouzelný nástroj bez omezení. Když AI analyzuje text, ve skutečnosti ví jen to, co se kdysi naučila ze svých tréninkových dat. Někdy jí může uniknout kontext nebo místní vtipy. Navíc, AI sama může být použita k šíření dezinformací, pokud ji někdo použije nepoctivě – právě v tom je zásadní riziko.
Nezanedbatelná je otázka etiky. Kdo rozhodne, co je manipulace a co neškodný názor? Zadávání úkolů AI vyžaduje pečlivost. Pokud vkládáme do systému osobní data nebo citlivé informace, neseme za to odpovědnost. OpenAI sama tvrdí, že chrání data uživatelů, ale hacking nebo úniky nejsou v online světě nic neobvyklého.
Všimněte si trendu posledních let. Počet falešných zpráv se každoročně zvyšuje. V tabulce najdete čísla z průzkumu agentury IPSOS z roku 2024:
Rok | Procento uživatelů setkávajících se s manipulací |
---|---|
2022 | 61 % |
2023 | 69 % |
2024 | 74 % |
Co nás čeká dál? Vývoj AI neustále zrychluje. Odborníci očekávají, že za dva roky dokáže AI vyhodnocovat multimediální obsah – videa, zvuk a obrázky, nejen text. Budeme potřebovat nástroje, které dokážou podobnou ochranu poskytnout i tam, kde text nestačí.
Na co si dát pozor?
AI už dnes mění svět mediální gramotnosti. Musíme se ale sami učit rozlišovat hranici mezi pomocníkem a nástrojem, který má svá rizika. Budoucnost nebude o slepé důvěře k novým technologiím, ale o chytřejším využívání toho, co máme v ruce.