Deepfake: odhalení zpětným vyhledáváním tváře

Grafika varující před deepfake zobrazuje napůl umělou, napůl lidskou tvář. Text uvádí: Realistická falešná videa, fotky, zvuk. Pozor na manipulaci! Logo FaceCheck.ID.

Deepfake je jedna z hlavních hrozeb, kvůli kterým má smysl ověřovat tváře z internetu zpětným vyhledáváním. Když někdo na seznamce, v pracovní nabídce nebo v investiční výzvě posílá video s tváří, která působí přesvědčivě, ale „nesedí“, reverzní vyhledávání obličeje může odhalit, že jde o ukradenou identitu reálné osoby, jejíž záběry byly použity k natrénování modelu.

Jak deepfake mění vyhledávání podle obličeje

Klasický face search pracuje s biometrickými rysy z fotky a hledá jejich výskyt na veřejně indexovaných stránkách. U deepfake fotek a videí je situace složitější ze dvou důvodů.

První problém je zdroj. Generativní modely se trénují na reálných snímcích, často stažených z Instagramu, LinkedInu, modelingových portfolií nebo OnlyFans. Když pak vyhledáte tvář z deepfake videa, výsledky často vedou na skutečnou osobu, která ale v daném videu nikdy nevystupovala. Match je technicky správný, výklad je špatný.

Druhý problém je syntetická tvář, která neexistuje. Modely typu StyleGAN dokáží vyrobit obličej osoby, kterou nikdy nikdo nevyfotografoval. U takové tváře vyhledávač buď nenajde žádnou shodu, nebo najde lookaliky s nízkým skóre. Absence shody u jinak věrohodně vypadajícího profilu je sama o sobě varovný signál, hlavně když člověk tvrdí, že je veřejně činný, modelka, lékař nebo voják na misi.

  • Romantické podvody: scammer použije deepfake video při videohovoru, aby působil jako osoba z fotek na profilu. Zpětné hledání původních fotek často vede na skutečný účet jiné osoby, většinou v jiné zemi, s jiným jménem.
  • Falešné pracovní pohovory: kandidát s real-time face swapem se hlásí na pozici v IT. Screenshot z pohovoru zadaný do face search může najít LinkedIn jiné osoby, jejíž fotku útočník použil jako základ.
  • Sextortion a deepfake porno: oběť dostane snímek s vlastní tváří v kompromitujícím obsahu. Reverzní hledání pomáhá zjistit, odkud útočník zdrojovou fotku vzal, kde se obsah šíří a zda existuje původní nezávadná verze.
  • Fake CEO a investiční scamy: video s „ředitelem“ doporučujícím obchodní platformu. Vyhledání tváře vede na skutečného manažera, který o videu nikdy neslyšel.

Co naznačují výsledky face search u podezřelého obsahu

Pokud máte podezření, že jde o deepfake, výsledky vyhledávání obličeje stojí za to číst v širším kontextu, ne jen podle skóre shody.

  • Shoda vede na stockové fotky nebo modelingové portfolio: častý zdroj tréninkových dat pro generování fiktivních identit.
  • Stejná tvář se objevuje pod více různými jmény na různých sítích: ukradená identita použitá pro několik podvodných profilů.
  • Tvář vůbec nemá historii na veřejném webu, ale účet tvrdí, že je profesionál, celebrita nebo veřejně známá osoba: pravděpodobně syntetická tvář.
  • Shody jsou jen na archivních článcích o obětech podvodů: tvář už figuruje v nahlášených případech.

Vizuální signály deepfaku, které face search nepokryje

Reverzní hledání pracuje s jediným snímkem. Posuzování pohybu, hlasu a kontextu je věc samostatná. Při hodnocení videa se vyplatí sledovat nesoulad rtů a zvuku, nepřirozené mrkání, statickou kůži bez pórů, divné odlesky v očích, rozmazané okraje vlasů a uší, nekonzistentní osvětlení mezi obličejem a krkem nebo artefakty při rychlém pohybu hlavy. U hlasových deepfake klonů bývá problém s dechem, intonací konce vět a šumem pozadí, který se chová jinak než běžný hovor.

Co face search u deepfake nedokáže prokázat

Shoda obličeje neříká, že daná osoba video natočila, schválila nebo o něm ví. Naopak nulová shoda neznamená, že tvář je syntetická, jen že se zatím nikde veřejně neindexovala. Při kombinaci s metadaty, kontextem účtu a chováním druhé strany ale face search zůstává jedním z nejpraktičtějších kroků, jak rychle oddělit reálnou identitu od ukradené nebo vygenerované. Konečné rozhodnutí, zda jde o deepfake, vyžaduje lidský úsudek a často i specializovanou forenzní analýzu obrazu.

Časté dotazy

Jak může deepfake ovlivnit výsledky vyhledávače podle obličeje (face recognition search engine)?

Deepfake (AI syntetický obličej nebo přemapovaný obličej) může způsobit, že vyhledávač vrátí směs výsledků: (1) odkazy na skutečnou osobu, jejíž obličej byl zneužit, (2) odkazy na původní zdrojový obličej (pokud byl „namíchán“ z cizích fotek), nebo (3) úplně jiné osoby se podobnými rysy. Proto je potřeba brát shodu jako indikaci podobnosti, ne jako důkaz identity, a vždy ověřovat kontext (kde se obrázek vzal, zda jde o satiru, reposty, „news“ weby apod.).

Jak poznat, že „silná shoda“ z face search může být deepfake a ne skutečná fotka stejné osoby?

Zaměřte se na kombinaci signálů: (1) nesoulad kontextu (profil tvrdí jiné jméno/země než zbytek stop), (2) opakující se „podezřelé“ verze stejného obličeje na různých webech bez jasného původu, (3) artefakty typické pro generování/úpravy (nezvyklé detaily v očích, zubech, okrajích vlasů, textury kůže), (4) rozdíly ve věku/tvarech obličeje mezi snímky, které by normálně nedávaly smysl, a (5) video/still snímky, kde se tvář mění nekonzistentně mezi záběry. Pokud používáte FaceCheck.ID nebo podobný nástroj, berte skóre jako vodítko a hledejte zejména původní, nejstarší a nejdůvěryhodnější zdroj výsledku.

Může deepfake „otrávit“ výsledky vyhledávačů obličejů (např. tím, že zaplaví web falešnými fotkami)?

Ano, v praxi to může zhoršit kvalitu výsledků: pokud se deepfake obrázky masově šíří, vyhledávač může indexovat více variant stejné (umělé) tváře a výsledky pak vypadají přesvědčivě, ale vedou na nízkokvalitní reposty, agregátory nebo podvodné stránky. Obrana je procesní: porovnat více nezávislých zdrojů, upřednostnit primární publikace (ověřené profily, oficiální weby, renomované redakce), kontrolovat datum a kontext, a nevyvozovat závěry z jednoho nálezu.

Jaký je bezpečný postup, když mám podezření, že nahrávaný snímek je deepfake, ale chci ho použít pro vyhledávání podle obličeje?

Bezpečný postup je minimalizovat riziko omylu i úniku dat: (1) použijte co nejčistší výřez obličeje bez watermarků a bez pozadí, které by vedlo k falešným stopám, (2) udělejte i klasické reverzní vyhledávání obrázku (nejen obličeje) kvůli dohledání původního souboru, (3) porovnejte výsledky z více nástrojů a hledejte shody v nejstarších zdrojích, (4) ověřte, zda výsledky neukazují na satiru, parodie, fanouškovské reposty nebo podvodné domény, a (5) pokud používáte FaceCheck.ID, zacházejte s výstupy jako s „lead“ pro další ověření, ne jako s důkazem.

Co dělat, když přes vyhledávač podle obličeje najdu deepfake, který zneužívá moji podobiznu?

Postupujte jako při incidentu: (1) zdokumentujte nález (URL, screenshot, datum/čas, případně archivace), (2) nešířte obsah dál a neinteragujte s podezřelými stránkami (riziko phishingu/malwaru), (3) požádejte o odstranění u hostingu/platformy (nahlášení porušení práv, intimní obsah, impersonace apod.), (4) pokud je obsah škodlivý (vydírání, intimní deepfake, doxxing), zvažte právní pomoc a oznámení příslušným orgánům, a (5) nastavte průběžné monitorování výskytů (např. pravidelné kontroly přes FaceCheck.ID či jiné nástroje), ale vždy s vědomím, že výsledky mohou obsahovat falešné shody a je nutné je ověřovat.

Christian Hidayat je AI inženýr na volné noze, který spolupracuje s FaceCheck. Pracuje na systémech strojového učení, které stojí za vyhledáváním podle obličeje na tomto webu. Má magisterský titul v oboru informatiky z Indonéské univerzity a deset let zkušeností s vývojem ML systémů nasazených v produkci, včetně práce na vektorovém vyhledávání a embeddingových reprezentacích. Placená spolupráce; podrobnosti viz úplné prohlášení.

Deepfake
Technologie deepfake se rychle vyvíjí a je čím dál těžší rozpoznat skutečné tváře od falešných. Pokud chcete ověřit, zda je fotografie pravá, nebo se jedná o deepfake, zkuste FaceCheck.ID a zjistěte více informací během chvilky. Vyzkoušejte FaceCheck.ID ještě dnes a chraňte se před deepfake podvody!
Deepfake: Jak odhalit falešné tváře pomocí FaceCheck.ID

Doporučené příspěvky související s deepfake


  1. Yilong Ma: Elon Muskův Dvojník nebo Mistrovské Dílo Deepfake?

    Avšak jeho náhlý vzestup k slávě vyvolal debaty o tom, zda je skutečnou osobou nebo produktem technologie deepfake. Navzdory pokračující debatě nebyly předloženy žádné konkrétní důkazy, které by potvrdily, že Yilong Ma je deepfake. Pokud byla Maova tvář skutečně uměle změněna, aby vypadala jako Muskova, představovalo by to významný pokrok v technologii deepfake.

  2. Jak najít a odstranit nahé deepfaky pomocí FaceCheck.ID

    Nahé deepfaky se staly rozsáhlým problémem. Nedávná zpráva zjistila, že 98 % deepfake videí na internetu je pornografických, přičemž 99 % obětí jsou ženy. Tisíce lidí denně zjišťují, že se stali oběťmi nahých deepfaků.

  3. Jak najít a odstranit nahé deepfaky pomocí FaceCheck.ID: Krok za krokem

    Ocitli jste se v noční můře deepfaků? Najděte své deepfaky. Použijeme FaceCheck.ID k nalezení deepfake obrázků.

  4. Proč Google Images selhává při vyhledávání tváří

    FaceCheck.ID je speciálně navržen pro hledání vaší tváře na internetu, a to i na manipulovaných obrázcích, jako jsou nekonsensuální deepfakes. Pokud se pokoušíte zjistit, jestli na internetu existují další upravené fotografie vás, obzvláště pokud jde o obsah jako deepfake nudes nebo AI generované explicitní obrázky, Google Images vás nechává zranitelné a bez odpovědí. Ochrana před deepfakes: V éře, kdy AI může vytvářet přesvědčivý falešný explicitní obsah, vám FaceCheck.ID pomáhá zjistit, zda online existuje nezákonné deepfake porno s vaší tváří, a dává vám sílu jednat.

  5. Najděte a odstraňte deepfake pornografii s vaší podobou: Aktualizovaný průvodce 2025

    Krok za krokem: Jak odhalit, nahlásit a odstranit nelegální deepfake porno pomocí ověřených AI nástrojů, právních kroků a podpůrných zdrojů. Jedna fotografie se může stát zbraní – hyperrealistickým deepfakem, který ukradne váš obličej, zfalšuje vaše tělo a zničí vaši důstojnost. Vyhledejte a najděte své deepfaky.

Deepfake je technologie využívající umělou inteligenci k vytváření velmi věrohodných falešných videí, fotografií nebo zvuků tím, že digitálně nahrazuje tváře či hlasy skutečných lidí.