Éra nemotorných trollích farem a úniků e-mailů se chýlí ke konci. Nová zpráva varuje, že umělá inteligence je připravena rozpoutat po celém světě dezinformační kampaně bezprecedentního rozsahu a sofistikovanosti, které ohrožují základy demokratických společností. Namísto armád lidí šířících propagandu bude brzy moci jeden člověk ovládat tisíce účtů na sociálních sítích ovládaných umělou inteligencí, schopných manipulovat veřejným míněním v reálném čase – bez neustálého lidského zásahu.
Vývoj dezinformací
V roce 2016 najala Ruská agentura pro výzkum internetu (IRA) stovky lidí, aby distribuovali nenávistný obsah online. Ačkoli byly široce medializovány, dopad těchto snah byl ve srovnání s cílenějšími úniky omezený. Nyní lze stejných cílů dosáhnout s exponenciálně vyšší efektivitou a dosahem. Nejnovější nástroje umělé inteligence dokážou generovat příspěvky k nerozeznání od lidí, dynamicky se přizpůsobovat konverzacím a udržovat silnou online identitu.
Tento posun není jen o automatizaci, ale také o autonomních operacích vlivu. Tyto „roje“ AI nebudou jen zveřejňovat předem napsané zprávy; budou se učit, rozvíjet a zlepšovat svou taktiku na základě zpětné vazby v reálném čase ze sociálních sítí a lidské interakce.
Věda za hrozbou
Nová studie publikovaná v časopise Science skupinou 22 odborníků na AI, kybernetickou bezpečnost a společenské vědy podrobně popisuje tento blížící se posun. Vědci varují, že technologie nyní napodobuje lidskou sociální dynamiku tak efektivně, že by mohla způsobit rozsáhlé změny v přesvědčení, ovlivnit volby a nakonec podkopat demokratické procesy.
Zpráva uvádí: „Pokrok v umělé inteligenci otevírá možnost manipulace přesvědčení a chování na úrovni populace.“
Lukasz Olejnik, vedoucí výzkumný pracovník na King’s College London, souhlasí: “Toto je extrémně obtížné prostředí pro demokratickou společnost. Máme velké potíže.”
Jak budou AI roje působit
Klíčovým faktorem je paměť. Na rozdíl od tradičních botů budou tito agenti AI schopni udržovat konzistentní online persony v průběhu času. Budou koordinovat své akce k dosažení společných cílů, přičemž budou vystupovat jako jednotliví uživatelé, takže je mnohem obtížnější je odhalit.
Tyto systémy budou také využívat mechanismy sociálních sítí:
- Micro A/B testování: Spusťte miliony variant zpráv, abyste zjistili nejúčinnější formulaci.
- Cílená komunikace: Přizpůsobte obsah přesvědčení a kulturním podnětům konkrétních komunit pro maximální dopad.
- Sebe zlepšení: Použijte reakce uživatelů ke zlepšení své taktiky v reálném čase.
„Co když umělá inteligence nejen chrlí falešné informace, ale tisíce chatbotů spolupracujících vytvářejí zdání populární podpory tam, kde žádná není? ptá se Nina Yankovic, generální ředitelka American Sunlight Project.
Nedostatek ochrany
Současné detekční metody již selhávají. Sociální média stále více omezují sdílení dat, což znemožňuje plně posoudit rozsah této hrozby. Odborníci se domnívají, že tato taktika je již testována a pravděpodobně bude nasazena v prezidentských volbách v roce 2028.
Problém není jen v technologii, ale i ve struktuře. Sociální sítě upřednostňují zapojení před pravdou, takže mají malou motivaci identifikovat nebo odstranit roje umělé inteligence. Vládám také chybí politická vůle zasáhnout.
Navrhované řešení
Zpráva navrhuje vytvoření „observatoře dopadu umělé inteligence“ složené z vědců a nevládních organizací, která by standardizovala důkazy, zlepšila situační povědomí a koordinovala rychlou reakci. Studie jasně vylučuje manažery sociálních médií, protože jejich obchodní modely podporují dezinformace.
Ani tento přístup však pravděpodobně nebude dostatečný. Rychlost a rozsah dezinformací řízených umělou inteligencí brzy předčí jakákoli obranná opatření.
Vzestup AI rojů není vzdálenou hrozbou, ale rozvíjející se realitou. Pokud nebudou podniknuty radikální kroky, budoucnost demokracie může záviset na tom, zda lidstvo dokáže rozpoznat a odolat manipulaci rychlostí stroje.


























