Meta vydělává miliardy na podvodných reklamách
Interní dokumenty společnosti Meta Platforms Inc., provozovatele Facebooku, Instagramu a WhatsAppu, ukazují na rozsáhlý a dlouhodobý problém: firma podle svých vlastních odhadů generuje až desetinu příjmů z reklam, které pocházejí z podvodných nebo jinak rizikových inzerátů. V praxi to znamená, že značná část miliard dolarů, které Meta vydělává na reklamě, pochází z obsahu, který poškozuje uživatele po celém světě.
Podle interních výpočtů, které získala agentura Reuters, tvořily v roce 2024 podvodné reklamy přibližně 10 % celkových výnosů Meta, tedy zhruba 16 miliard dolarů. Z této sumy přibližně 7 miliard pochází z reklam, které samotná Meta označuje jako „vysoce rizikové“, tedy takové, u nichž existuje výrazné podezření na podvodný či nelegální obsah.
Tyto reklamy se zobrazují v ohromujícím množství: podle jednoho dokumentu z prosince 2024 se uživatelům denně zobrazí více než 15 miliard „high-risk“ reklam napříč platformami Facebook, Instagram a WhatsApp. Z uniklých dokumentů vyplývá, že Meta používá interní algoritmus, který inzerenty vyhodnocuje podle pravděpodobnosti, že jde o podvod. Blokace však nastává až v případě, kdy je jistota vyšší než 95 %. Pokud algoritmus určí nižší pravděpodobnost, Meta inzerenta nezakáže, a místo toho mu nabídne reklamu za vyšší cenu („penalty bid“). Jinými slovy: čím podezřelejší reklama, tím vyšší cena za její zobrazení, a tím vyšší zisk pro Metu.
K tomu přistupují i vnitřní finanční limity. Jeden z interních předpisů údajně stanovoval, že tým, který prověřuje podezřelé inzerenty, nesmí svými zásahy snížit příjmy společnosti o více než 0,15 %, tedy přibližně 135 milionů dolarů v první polovině 2025. To v praxi znamená, že Meta si vědomě nastavila hranici, za níž už by ochrana uživatelů ohrozila firemní zisk.
Zvláštní roli hraje definice „zakázané reklamy“. Interní zprávy ukazují, že až 77 % inzerátů, které byly později označeny jako podvodné, neporušovalo doslovné znění pravidel platformy, a proto nebyly blokovány. Šlo například o investiční podvody, falešné charitativní sbírky, nelegální online kasina nebo prodej nebezpečných „zdravotních doplňků“. V některých případech se podvodné reklamy maskovaly jako oficiální stránky známých značek či státních institucí.
Zdroje z interního prostředí Meta připouštějí, že firma dlouhodobě upřednostňovala výnos před integritou a že prioritou nebylo odstranění rizikových inzerátů, ale řízení jejich ekonomického dopadu. Citovaný dokument z dubna 2025 uvádí, že „je jednodušší inzerovat podvody na platformách Meta než na Google“. Důvodem je kombinace masivního objemu uživatelských dat, efektivního cílení a slabšího ověřování inzerentů. Z pohledu podvodníků je prostředí Meta ideální – reklamy se šíří rychle, často obcházejí detekci a uživatelé na ně reagují s vyšší mírou důvěry, protože přicházejí z prostředí, které vnímají jako osobní.
Interní analýzy dokonce odhadují, že platformy Meta jsou zapojeny do zhruba třetiny všech úspěšných podvodů v USA, a to zejména díky schopnosti algoritmů doručit reklamu přesně těm, kteří jsou k ní náchylní.
Uniklé materiály neukazují jen současný stav, ale i dlouhodobý plán. Meta podle nich předpokládá, že podíl příjmů z podvodných reklam bude snižovat pouze pozvolna z 10,1 % v roce 2024 na 7,3 % v roce 2025, poté na 6 % v roce 2026 a 5,8 % v roce 2027. Tyto hodnoty ukazují, že firma neplánuje rychlý zásah, ale postupnou úpravu, která nenaruší její příjmy. Z interní korespondence rovněž vyplývá, že v roce 2024 vedení schválilo „středně rychlý“ scénář řešení problému, nikoliv okamžité odstranění všech podvodných kampaní.
Mluvčí společnosti Andy Stone reagoval tím, že dokumenty prezentují „selektivní a zkreslený pohled“ na postoj firmy k podvodům. Tvrdí, že odhad 10 % příjmů je „příliš široký“ a zahrnuje i reklamy, které se později ukázaly jako legitimní. Podle něj Meta během 18 měsíců snížila počet hlášených podvodných reklam o 58 % a v roce 2025 odstranila více než 134 milionů reklamních příspěvků označených za scam. Přesto kritici namítají, že firma mohla takto vysoké výsledky dosáhnout především díky změně definic, nikoliv skutečným zásahům.
Odhalení Reuters vyvolalo silné reakce v regulačních kruzích po celém světě. Ve Spojeném království finanční regulátor zjistil, že platformy Meta byly zapojeny do více než poloviny všech platebních podvodů v roce 2023, což je více než všechny ostatní sociální sítě dohromady. V USA má případem zabývat Komise pro cenné papíry (SEC), která prověřuje, zda Meta zatajovala dopady podvodných reklam před investory. Evropská komise sleduje situaci z pohledu Aktu o digitálních službách (DSA), který vyžaduje, aby platformy aktivně chránily uživatele před klamavým obsahem.
Odborníci z oblasti digitální etiky a práva tvrdí, že Meta se tak dostává do situace, kdy lze její zisky z podvodné reklamy považovat za přímý ekonomický prospěch z nelegální činnosti. Některé neziskové organizace proto volají po vytvoření kompenzačního fondu pro oběti online podvodů, který by byl financován právě z části výnosů těchto reklam.
V praxi má situace vážné důsledky. Uživatelé sociálních sítí jsou vystaveni miliardám potenciálně nebezpečných reklam denně. Algoritmy navíc často zesilují jejich účinnost, protože uživatel, který jednou klikne na podvodnou nabídku, je následně zacílen na další podobný obsah. Tento efekt vytváří spirálu důvěry, v níž se podvodné nabídky jeví čím dál věrohodněji. Az hlediska etiky a společenské odpovědnosti jde o zásadní problém. Platforma, která má na světě přes tři miliardy uživatelů, má obrovský vliv na informační prostředí a pokud se v něm šíří podvody takového rozsahu, může to znamenat ztrátu důvěry v celý ekosystém digitální reklamy.
Kritické chyby v AI frameworcích
Bezpečnostní výzkumníci z Oligo Security odhalili kritické zranitelnosti typu RCE (Remote Code Execution) v několika klíčových inference enginech umělé inteligence, které používají společnosti Meta, Nvidia a Microsoft, stejně jako populární open-source projekty vLLM, SGLang a Modular Max Server. Tyto chyby umožňovaly útočníkům vzdáleně spouštět libovolný kód na serverech, kde běžely AI modely, a získat tak úplnou kontrolu nad celým prostředím. Výsledky výzkumu zveřejnil server The Hacker News.
Příčinou byla opakovaná chyba v návrhu, která se rozšířila napříč projekty. Výzkumníci ji označili jako ShadowMQ. Vývojáři těchto frameworků totiž používali stejný kódový vzorec pro komunikaci mezi komponentami: knihovnu ZeroMQ (ZMQ) a její funkci recv_pyobj(). Ta automaticky deserializuje přijatá data pomocí modulu pickle v Pythonu, což je sice pohodlné, ale velmi nebezpečné, protože pickle při načítání může spouštět libovolný kód. Sockety ZeroMQ navíc často běžely bez autentizace, a tak se staly ideální vstupní branou pro útoky.
Útočný řetězec byl přitom překvapivě jednoduchý. Útočník nejprve identifikoval server, který používal zranitelný framework (například Meta LLaMA Serve, NVIDIA TensorRT-LLM nebo vLLM) a měl otevřený socket ZeroMQ přístupný z internetu. Následně odeslal škodlivý pickle objekt, například skript, který po spuštění otevřel shell, stáhl malware nebo vytvořil zadní vrátka. Jakmile server tento objekt přijal, funkce recv_pyobj() ho automaticky deserializovala a tím i spustila vložený kód. Útočník tak získal plný vzdálený přístup (RCE) a mohl číst data, manipulovat s modely, upravovat výstupy nebo ovládnout celý AI cluster. Zneužití přitom nevyžadovalo žádné pokročilé znalosti, stačilo pár řádků Pythonu. Kritičnost chyby proto výzkumníci ohodnotili skóre CVSS 9,3 z 10.
Stejný zranitelný vzorec se objevil v řadě produktů. U Meta AI šlo o zranitelnost CVE-2024–50050, která byla opravena v říjnu 2024, u Nvidie a Microsoftu opravy stále probíhají. Frameworky vLLM, SGLang a Modular Max Server sdílely téměř identický kód a tím i stejné riziko:
- CVE-2025–30165 (skóre CVSS: 8,0) – vLLM (problém sice nebyl opraven, ale byl vyřešen přechodem na engine V1 jako výchozí)
- CVE-2025–23254 (skóre CVSS: 8,8) – NVIDIA TensorRT-LLM (opraveno ve verzi 0.18.2)
- CVE-2025–60455 (skóre CVSS: N/A) – Modular Max Server (opraveno)
- Sarathi-Serve (zůstává neopraveno)
- SGLang (implementovány neúplné opravy)
Výzkumníci upozorňují, že nejde o izolovaný incident, ale o systémový problém, tedy že bezpečnostní slabiny vznikají kopírováním stejných knihoven a funkcí napříč projekty bez důsledných kontrol. Dopady takových chyb mohou být zásadní. Tyto frameworky jsou používány v cloudových službách, firemních systémech i produkčních aplikacích, které zpracovávají citlivá data. Útočník může nejen získat přístup k uloženým informacím a váhám modelu, ale i manipulovat s odpověďmi umělé inteligence, měnit její rozhodovací logiku nebo systém zneužít k dalším útokům. V extrémním případě může kompromitovaný server sloužit jako výchozí bod pro útoky v celé infrastruktuře nebo být využit k těžbě kryptoměn.
Výzkum tak odhaluje hlubší problém, který přesahuje jednotlivé společnosti: v rychle se rozvíjejícím světě umělé inteligence zůstává bezpečnost často až druhotnou prioritou.
Automatizované útoky skrze Claude AI se setkaly s pochybnostmi
Společnost Anthropic oznámila, že odhalila rozsáhlou kyberšpionážní operaci vedenou údajně čínskou skupinou označovanou jako GTG-1002, která byla podle ní z velké části automatizovaná pomocí modelu Claude Code AI. Aktuálně však tato tvrzení čelí rostoucím pochybnostem od bezpečnostních odborníků a komunit AI.
Anthropic tvrdí, že operace proběhla v polovině září 2025 a cílila na asi 30 subjektů: technologické firmy, finanční instituce, výrobní podniky v chemickém průmyslu i vládní úřady. Útočníci podle firmy využili model Claude Code tak, že většinu pracovní zátěže, 80 % až 90 %, vykonala AI, zatímco lidé se podíleli pouze formou schvalování klíčových kroků či exfiltrace dat. Operace byla rozdělena do šesti fází: výběr cíle, autonomní skenování infrastruktury, generování exploitů a testování, exfiltrace dat a vytváření zadních vrátek, mapování vnitřních systémů a dokumentování operace. Podle Anthropic „AI úspěšně získala přístup k potvrzeným vysokohodnotovým cílům pro sběr zpravodajských informací, včetně klíčových technologických korporací a vládních agentur“.
Ovšem mnoho odborníků z oblasti kyberbezpečnosti a AI na tvrzení reaguje skepticky. Hlavním důvodem je, že společnost Anthropic neposkytla žádné konkrétní indikátory kompromitace (IOCs), technické detaily či údaje, které by umožnily nezávislé ověření. Například výzkumník Kevin Beaumont uvedl: „Je to divné… jejich předchozí zpráva taky byla.“ Jiný odborník označil celý případ za „marketingovou bublinu“, upozorňující, že současné AI systémy nejsou schopné tak rozsáhlých autonomních kampaní, jak je zde prezentováno.
Izolované technické detaily zveřejněné firmou popisují, že útočník vytvořil infrastrukturu, kterou Claude využíval jako „autonomního cyber intrusion agenta“, nikoliv pouze jako nástroj pro generování útoků. AI model podle Anthropic autonomně skenoval zranitelnosti, prováděl testování, exfiltraci a dokumentaci a lidský operátor měl na starosti schválení přechodu mezi fázemi nebo finální krok datového úniku. Odborná komunita však upozorňuje, že zmíněné fáze, jak je firma popisuje, jsou neověřené mimo její vlastní tvrzení a mohou zahrnovat nadsázku či marketingovou přitažlivost.
Pokud by byla tvrzení pravdivá, šlo by o zásadní mezník – první veřejně dokumentovaný případ, kdy AI model vykonal kyberútok ve vysokém měřítku s minimálním zapojením člověka. Ale pokud by se ukázalo, že jde o přehnané nebo neověřené tvrzení, znamenalo by to, že riziko „autonomních kyberútoků řízených AI“ zůstává spíše teoretickým scénářem než realitou.
Nová funkce prevence snímání obrazovky v Teams
Microsoft Teams přichází s novou funkcí určenou pro prémiové uživatele, která má za úkol automaticky zabránit pořizování snímků obrazovky a nahrávání během schůzek. Tato funkce nazvaná „Prevent screen capture“ má chránit vizuální obsah schůzek na zařízeních s Windows a Androidem prostřednictvím nativních nástrojů nebo aplikací třetích stran.
Microsoft oznámil tuto možnost již v květnu 2025 a uvedl, že implementace začne v červenci. Ve skutečnosti však došlo k posunu a byla spuštěna až na začátku listopadu.
Funkce je nastavena takto: na stolních zařízeních s Windows se při pokusu o snímek obrazovky zobrazí místo obsahu schůzky černý obdélník zahrnující okno schůzky. Na zařízeních s Androidem se uživateli zobrazí zpráva, která jej informuje, že je zachycování obrazovky omezeno. U ostatních platforem, které tuto funkci nepodporují, bude účastník připojen pouze v režimu audio.
Microsoft zároveň upozornil, že je funkce ve výchozím nastavení vypnuta a že ji musí organizátor schůzky nebo spolupořadatel aktivovat v možnostech schůzky. Správci Microsoft 365 mají možnost spravovat zařazení zařízení a licenci Teams Premium přes Entra ID. Nicméně je důležité zdůraznit, že i když nahrávání či snímání obrazovky bude blokováno, sdílené citlivé informace nebo média mohou být stále zachyceny, například pomocí mobilního telefonu, který vyfotí obrazovku během schůzky.
Dříve v roce spustil Microsoft podobnou ochranu pro chaty, zejména ve službě WhatsApp, kde funkce „Advanced Chat Privacy“ zabraňuje exportu obsahu chatů a ukládání sdílených médií. Kromě toho se Microsoft v posledních měsících zaměřil na rozšíření ochrany proti nebezpečným typům souborů a URL v chatech a kanálech Teams. Funkce bude také upozorňovat uživatele na odkazy, které byly označeny jako škodlivé.
Rámec této změny uvádí, že platforma Teams již působí v průměru pro více než 320 miliónů uživatelů měsíčně na 181 trzích a ve 44 jazycích, což zvýrazňuje její rozsah a potenciální dopad zaváděných funkcí.
Ve zkratce
- Varování před nákupními podvody Black Fraud Day
- Přehled kybernetických incidentů za říjen 2025 od NUKIB
- Pět osob se v USA přiznalo k vině za pomoc severokorejským IT pracovníkům při infiltraci 136 společností
- Ruští hackeři vytvořili 4 300 falešných cestovních webů, aby ukradli platební údaje hotelových hostů
- Google žaluje čínské hackery stojící za phishingovou platformou Lighthouse v hodnotě 1 miliardy dolarů
O seriálu
Tento seriál vychází střídavě za pomoci pracovníků Národního bezpečnostního týmu CSIRT.CZ provozovaného sdružením CZ.NIC a bezpečnostního týmu CESNET-CERTS sdružení CESNET, bezpečnostního týmu CDT-CERT provozovaného společností ČD - Telematika a bezpečnostních specialistů Jana Kopřivy ze společnosti Nettles Consulting a Moniky Kutějové ze sdružení TheCyberValkyries. Více o seriálu…
